Sei sulla pagina 1di 302

Matem aticas Avanzadas:

de los espacios lineales al analisis vectorial


H. Hern andez
Departamento de Fsica, Facultad de Ciencias,

ar
Universidad de Los Andes, Merida-Venezuela

L. A. N un
ez

in
Escuela de Fsica, Facultad de Ciencias,
Universidad Industrial de Santander, Bucaramanga-Colombia

lim
1 de junio de 2016

re
o rP
ad
rr
Bo
Indice general

ar
in
1. Los vectores de siempre 5
1.1. Vectores, escalares y
algebra vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1. Escalares y vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

lim

1.1.2. Algebra de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Independencia lineal, vectores base y el producto de vectores . . . . . . . . . . . . . . . . . . 9
1.2.1. Vectores linealmente independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Productos de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
re
1.2.4. Producto vectorial . . . . . . . . . . . . . . . . . . . .
1.2.5. Producto triple o mixto . . . . . . . . . . . . . . . . .
1.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
13
14
rP
1.3. Componentes, coordenadas y cosenos directores . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1. Bases, componentes y coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2. Cosenos directores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.3. Una division fallida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4. Algebra vectorial y coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
o

1.4.1. Suma y resta de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


1.4.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
ad

1.4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5. Aplicaciones del
algebra vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5.1. Rectas y vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5.2. Planos y vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
rr

1.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.6. Algebra vectorial con ndices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.6.1. Convenci on de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Bo

1.6.2. Los vectores y los ndices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26


1.6.3. Un par de c alculos ilustrativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6.4. Escalares, pseudoescalares, vectores y pseudovectores . . . . . . . . . . . . . . . . . . . 27
1.6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.7. Un comienzo a la derivaci on e integracion de vectores . . . . . . . . . . . . . . . . . . . . . . 30
1.7.1. Vectores variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2
INDICE GENERAL

1.7.2. Derivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7.3. Velocidades y aceleraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.7.4. Vectores y funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.5. El operador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.7.6. Integracion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.7.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.8. Vectores y n umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.8.1. Los numeros complejos y su algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.8.2. Vectores y el plano complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.8.3. Formulas de Euler y De Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.8.4. Algunas aplicaciones inmediatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

ar
1.8.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.9. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.10. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

in
2. Espacios Vectoriales Lineales 66
2.1. Grupos, cuerpos y espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.1.1. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

lim
2.1.2. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.1.3. Espacios vectoriales lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.1.4. Ejemplos espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.1.5. La importancia de la conceptualizacion y la notacion . . . . . . . . . . . . . . . . . . . 72
2.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.2. Espacios metricos, normados y con producto interno . . . . . . . . . . . . . . . . . . . . . . . 74

re
2.2.1. Metricas y espacios metricos . . . . . . . . . . . . . . . . . . .
2.2.2. Normas y espacios normados . . . . . . . . . . . . . . . . . . .
2.2.3. Espacios vectoriales con producto interno: Espacios euclidianos
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
74
75
76
rP
2.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.3.1. Dependencia/Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.3.2. Bases de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.3. El determinante de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.3.4. Ortogonalidad y bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
o

2.3.5. Ortogonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.3.6. Complementos ortogonales y descomposicion ortogonal . . . . . . . . . . . . . . . . . . 94
ad

2.3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.4. Aproximaci on de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2.4.1. Condiciones para la aproximacion de funciones . . . . . . . . . . . . . . . . . . . . . . 97
2.4.2. El metodo de mnimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
rr

2.4.3. Interpolacion polinomial de puntos experimentales . . . . . . . . . . . . . . . . . . . . 105


2.4.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.5. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Bo

2.6. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 3
INDICE GENERAL

3. Vectores Duales y Tensores 121


3.1. Funcionales lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.2. Parentesis tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.2.1. Tensores, una definici on funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.2.2. Producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.2.3. La tentaci on del producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.2.4. Bases para un producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.2.5. Tensores, sus componentes y sus contracciones . . . . . . . . . . . . . . . . . . . . . . 130
3.2.6. Tensor metrico, ndices y componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3.2.7. Teorema del cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

ar
3.2.8. Un par de tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.3. Repensando los vectores nuevamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.3.1. Vectores, covectores y leyes de transformacion . . . . . . . . . . . . . . . . . . . . . . . 144

in
3.3.2. Transformaci on de los vectores base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
3.3.3. Cartesianas y polares, otra vez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.3.4. Repensando las componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

lim
3.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
3.4. Transformaciones, vectores y tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
3.4.1. Un ejemplo detallado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
3.5. Vectores, tensores y espacios pseudo-euclideanos . . . . . . . . . . . . . . . . . . . . . . . . . 163
3.5.1. Espacios minkowskianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
3.5.2. Un toque de Relatividad Especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

3.6.1. La funci
re
3.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . .
3.6. Espacios de funciones . . . . . . . . . . . . . . . . . . .
on delta de Dirac . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
168
169
169
rP
3.6.2. Bases continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
3.6.3. Transformada de Fourier. Bases de ondas planas . . . . . . . . . . . . . . . . . . . . . 175
3.6.4. Las representaciones |ri y |pi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
3.6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
3.7. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
3.8. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
o

4. Matrices, Determinantes y Autovectores 191


ad

4.1. Operadores Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192


4.1.1. Espacio vectorial de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.1.2. Composici on de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
rr

4.1.4. Funciones de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198


4.1.5. Espacio Nulo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.1.6. Operadores biyectivos e inversos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Bo

4.1.7. Operadores hermticos conjugados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202


4.1.8. Operadores hermticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
4.1.9. Operadores unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
4.1.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.2. Representacion matricial de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
4.2.1. Bases y la representaci on matricial de operadores . . . . . . . . . . . . . . . . . . . . . 206

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 4
INDICE GENERAL

4.2.2. Cambio de bases para vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209


4.2.3. Traza de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
4.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
4.3. Diferenciacion de operadores y algebra matricial . . . . . . . . . . . . . . . . . . . . . . . . . 213
4.3.1. Reglas de diferenciaci on de operadores lineales . . . . . . . . . . . . . . . . . . . . . . 214
4.3.2. La formula de Glauber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.3.3. Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.4. Un parentesis determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
4.4.1. Formula de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
4.4.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

ar
4.5. Un zool ogico de matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.5.1. Matriz unitaria y la matriz nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.5.2. Matriz diagonal a bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.5.3. Matriz transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

in
4.5.4. Matriz de cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
4.5.5. Matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
4.5.6. Matriz singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

lim
4.5.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
4.5.8. Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
4.5.9. Matrices complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
4.5.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
4.6. Autovectores y Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
4.6.1. Definiciones y teoremas preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

re
4.6.2. Autovalores, autovectores e independencia lineal .
4.6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
4.7. Autovalores y autovectores de un operador . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
232
233
233
rP
4.7.1. El polinomio caracterstico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
4.7.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
4.8. Autovalores y autovectores de matrices importantes . . . . . . . . . . . . . . . . . . . . . . . 243
4.8.1. Autovalores y autovectores de matrices similares . . . . . . . . . . . . . . . . . . . . . 243
4.8.2. Autovalores y autovectores de matrices hermticas . . . . . . . . . . . . . . . . . . . . 247
4.8.3. Autovalores y autovectores de matrices unitarias . . . . . . . . . . . . . . . . . . . . . 250
o

4.8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254


4.9. Conjunto completo de observables que conmutan . . . . . . . . . . . . . . . . . . . . . . . . . 254
ad

4.9.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260


4.10. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
4.10.1. Eliminacion de Gauss Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
4.10.2. El metodo de la matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
rr

4.10.3. Factorizaci
on LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
4.10.4. Metodo de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
4.10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
Bo

4.11. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 5
INDICE GENERAL

5. Ap endice 277
5.1. Introducci
on a los CAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
5.2. Maxima: Sintaxis b asica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
5.2.1. Calculos elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
5.2.2. Bibliotecas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
5.2.3. Maxima en modo texto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
5.2.4. Invocando la ayuda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299

ar
in
lim
re
o rP
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 6
Captulo 1

ar
Los vectores de siempre

in
lim
re
orP
ad
rr
Bo

7

1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL

1.1. Vectores, escalares y


algebra vectorial
Desde los primeros cursos de Fsica en educacion media, venimos hablando de vectores como cantidades
que tienen que ser representadas con mas de un n
umero. Son varias las razones que obligan a introducir este
(y otro) tipo de cantidades multidimensionales. Enumeraremos algunas que, a nuestro criterio personal,
son las mas representativas.

1. Necesidad de modelos matem aticos de la naturaleza. Desde los albores del renacimiento, con
Galileo Galilei a la cabeza, nos es imperioso representar cantidades de manera precisa. Las matem aticas
nos apoyan en esta necesidad de precision y desde ese entonces son el lenguaje de la actividad cientfica.

2. Los modelos tienen que tener contrastaci on experimental. Las ciencias y sus modelos, en ultima

ar
instancia, tienen que ver con la realidad, con la naturaleza y por ello debemos medir y contrastar las
hip
otesis con esa realidad que modelamos. Necesitamos representar cantidades medibles (observables)
y que, por lo tanto, tienen que ser representadas de la forma mas compacta, pero a la vez mas precisa
posible.

in
3. Las leyes de los modelos deben ser independiente de los observadores. Cuando menos a
una familia significativa de observadores, el comportamiento de la naturaleza no puede depender de la

lim
percepci
on de un determinado observador, por lo tanto, los modelos que construimos para describirla
tampoco pueden depender de los observadores.

Es com un que tropecemos con: escalares, vectores, tensores y espinores, dependiendo del n umero de
cantidades que necesitemos para representar determinado objeto matematico. Podremos constatar que las
leyes de la Fsica vienen escritas en forma vectorial (o tensorial) y, por lo tanto, sera la misma ley para la
familia de observadores equivalentes.

1.1.1. Escalares y vectores


re
rP
Dejaremos para m as adelante caracterizar objetos como tensores y espinores, por ahora nos contentaremos
con refrescar nuestros recuerdos con cantidades como:

Escalares: Ser
an aquellas cantidades las cuales se representan con UN solo n
umero, una magnitud: temperatura,
volumen, masa, entre otras. Es costumbre no denotarlas de manera especial, as T = 5o C representar
a
o

una temperatura de 5 grados centgrados.


Vectores: Ser
an cantidades las cuales, para ser representadas por un objeto matematicos requieren mas de una
ad

cantidad: requieren de UN n umero, UNA direccion y UN sentido. Entre las cantidades que tpicamente
reconocemos como vectores est an: la velocidad, la aceleracion, la fuerza. En terminos graficos podremos
decir que un vector sera un segmento orientado, en el cual la dimension del segmento representar a su
modulo y su orientacion la direccion y el sentido. Para diferenciarlos de las cantidades escalares hay
rr

una variedad de representaciones, entre ellas: en negrita a; con una flecha arriba de la cantidad ~a; con

una tilde arriba o abajo a
; o explicitando el origen del segmento orientado OP . El modulo del vector lo
representaremos dentro de la funci on valor absoluto, o sencillamente sin la flecha arriba a = |a| = |~a| .
Bo

Los vectores son independientes del sistema de coordenadas. Sus caractersticas (modulo, direcci on y
sentido) se preservar
an en todos los sistemas de coordenadas. Mas a un, habra vectores que podremos des-
plazarlos (conservando su m odulo direcci
on y sentido) paralelos a ellos mismos, en el espacio y seguir an
siendo los mismos, por ello encontraremos el termino de vectores deslizantes. Un ejemplo son las fuerzas que
act
uan en un determinado cuerpo, como se muestra el cuadrante I en la Figura 1.1. Tambien habra vectores

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 8

1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL

ar
in
lim
Figura 1.1: Vectores y sus operaciones

re
atados a un punto en el espacio, por cuanto representan una de sus propiedades: la velocidad del viento, el
campo electrico, o sus variaciones son algunos ejemplos de estos vectores atados (observe la Figura 1.2 como
rP
ejemplos ilustrativos).

1.1.2.
Algebra de vectores
Enumeraremos r apidamente el algebra de vectores sin hacer referencia a un sistema de coordenadas.
o

Desde cursos anteriores nos ense


naron a representar graficamente este algebra, as tenemos que:
ad

Vector nulo. Es aquel que tiene por m


odulo cero y no se le pude asignar direccion ni sentido. El frecuente
representar al vector nulo por 0.

Vector unitario. Es aquel que tiene por modulo la unidad, es muy u til por cuanto, para efectos algebraicos,
rr

contiene u
nicamente direcci on y sentido. Lo denotaremos con un acento circunflejo, com unmente llamado
a
sombrero u a = |a| , con lo cual todo vector se podra expresar por un modulo en la direccion y sentido de
un vector unitario: a = |a| u a = a
ua .
Bo

Comparaci on de vectores. Al comparar sus modulos diremos que pueden ser mayores, menores o iguales.
Por lo tanto, tal y como mostramos en el cuadrante IIa de la Figura 1.1, dos vectores seran iguales, a = b,
si tienen la misma direcci
on y sentido.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 9

1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL

ar
in
lim
re
Figura 1.2: Ejemplos de vectores atados
rP
Multiplicaci on por un escalar. Un vector multiplicado por un escalar, , cambiara su modulo si > 0
y cambiara su sentido, y eventualmente su modulo, si < 0. Tal y como puede apreciarse en el cuadrante IIa
de la Figura 1.1. Claramente dos vectores proporcionales seran colineales. Diremos ademas, que el inverso
del vector a ser on de a por (1). Esto es: (1) a = a.
a la multiplicaci
o

Suma de vectores. Aprendimos que para sumar vectores utilizamos la regla del paralelogramo, es decir,
ad

desplazamos paralelamente uno de los vectores y lo colocamos a continuacion del otro, de tal forma que
la diagonal del paralelogramo, que tiene por lados los vectores sumandos, constituye el vector suma (ver
cuadrantes IIa y IIb de la Figura 1.1). Este esquema se puede generalizar para varios vectores tal y como lo
mostramos en el cuadrante III de la Figura 1.1. All construimos un polgono cuyos lados los constituyen los
rr

vectores sumandos a, b, c, d y n con n = a + b + c + d.


Notese que a
un en el caso tridimensional, el vector suma siempre sera coplanar (estara en el mismo plano)
a los sumandos que lo generaron.
Bo

Igualmente, podemos definir la resta de vectores al sumar el inverso. Esto es

a b a + (b) 0 = a a a + (a) .

En terminos gr
aficos la resta de dos vectores se representa colocando los vectores (minuendo y sustraendo)
con el mismo origen y uniendo las cabezas de flecha. Dependiendo de cual vector es el minuendo y cual
sustraendo el vector resta apuntara del sustraendo hacia el minuendo, esto es, (a + b + c) a = b + c.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 10
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

Claramente, el modulo del vector resta representa la distancia entre los dos extremos de los vectores
minuendo y el sustraendo.

Un resumen de propiedades. Podemos resumir las propiedades del algebra de vectores como sigue:
La suma de vectores:

tiene un u
nico elemento neutro 0 + a = a + 0 = a, a,
existe un elemento simetrico a (uno para cada vector) tal que 0 = a a a + (a),
es conmutativa a + b = b + a,
es asociativa (a + b) + c = a + (b + c),

ar
es distributiva respecto a la multiplicacion por escalares: (a + b) = a + b;

La multiplicaci
on de escalares por vectores:

in
es conmutativa a = a,
es asociativa (a) = () a,

lim
es distributiva ( + ) a = a + a.

1.1.3. Ejercicios
1. Un paralelogramo tiene un angulo agudo de /3 y lados de longitud a = 1 y b = 2. Si pensamos que
esos lados como vectores a y b encuentre
a) Encuentre los vectores: a + b y a b
b) Encuentre los vectores: 2a + 3b y 5a 7b
re
rP
2. Se tiene un sistema de n partculas de masas {mn }, y sea ri el radio vector para la i-esma partcula
respecto al origen de coordenadas. El centro de masa del sistema estara indicado por el vector:
Pn
mi ri
rCM = Pi=1n
i=1 mi
o

Encuentre el centro de masas para los siguientes sistemas:


ad

a) Masas iguales a: 1, 2, 3 ubicadas en los vertices de un triangulo equilatero cuyos lados son de
longitud a = 2.
b) Masas iguales a: 1, 2, 3, 4 en los vertices de un cuadrado de lados a = 2.
rr

c) Masas iguales a: 1, 2, 3, 4 en los vertices inferiores de un cubo cuyos lados son de longitud a = 2
y masas iguales a: 5, 6, 7, 8 en la vertices superiores.
Bo

1.2. Independencia lineal, vectores base y el producto de vectores


Armados con el
algebra y explicitando sus propiedades podemos construir la primera aproximacion a uno
de los conceptos fundamentales del algebra lineal. La nocion de independencia o dependencia lineal.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 11
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

1.2.1. Vectores linealmente independientes


Diremos que tres vectores a, b, c son linealmente independientes si se cumple que

a+ b+ c=0 ===0

es decir, que la u
nica manera que al sumar cualquier multiplo de a, b y c de manera que la suma se anule es
obligando a que los escalares sean necesariamente nulos. Si no se cumple lo anterior entonces diremos que
uno de los vectores sera linealmente dependiente y por lo tanto se podra expresar como combinacion lineal
de los otros dos
6= 0
a + b + c = 0 alguno de 6= 0 c= a + b
6= 0

ar

Es muy importante se nalar que los vectores linealmente independientes formaran una base para el espacio
donde estos vectores viven y el numero maximo de vectores linealmente independientes sera la dimensi
on
de ese espacio de residencia. Mas adelante estudiaremos con mas detalle el concepto de bases.

in
Tratemos de concretar algunas de estas afirmaciones.

Dos vectores linealmente dependientes son colineales.

lim
Es claro que:

a = b
 

6= 0
a + b = 0 con alguno de
6= 0
b = a



el contrario tambien ser
re
a cierto: si dos vectores son colineales ellos ser

a = b a + b = 0 b + b = 0 ( + ) b = 0 =
an linealmente dependientes.

,
rP

con lo cual podremos afirmar que si dos vectores son linealmente independientes ellos no son colineales.
Tres vectores linealmente dependientes son coplanares.
Por ser los tres vectores linealmente dependientes al menos uno de los escalares tiene que ser distinto
de cero, digamos , esto es
o


a + b + c = 0 c = a b = 1a + 2b ,
ad

pero como 1 a a y 2 b b, esto significa que 1 a y a son colineales, de la misma manera que 2 b
y b, y por lo tanto, la suma estara en el mismo plano.
rr

Dos vectores linealmente independientes expanden todos los vectores coplanares.


Dado dos vectores a y b linealmente independientes, entonces cualquier vector c, coplanar con a y b,
podr
a expresarse como una combinacion lineal de estos. Diremos que c se expresa en terminos de a y
Bo

b como c = 1 a + 2 b y esa expresi


on es u
nica.
La primera de las afirmaciones es directa por cuanto hemos visto que si a y b son linealmente inde-
pendientes y c es coplanar con a y b, entonces, necesariamente a, b y c son linealmente dependientes.
Esto es:

a + b + c = 0 c = a b = 1a + 2b

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 12
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

ar
in
lim
Figura 1.3: Productos de Vectores

La demostraci on de que la expansi


on es u
nica viene de suponer que existen dos maneras distintas de
representar al mismo vector c
c = 1a + 2b
re
0 = 1 1 a + 2 2 b
 
1
1 = 0 1 = 1
rP
c = 1a + 2b
2
2 = 0 2 = 2

debido a que a y b son linealmente independientes.


La demostraci on para el caso tridimensional es equivalente. Es decir tres vectores linealmente indepen-
dientes a, b y c expanden, de manera unvoca, todos los vectores del espacio. Esta demostracion queda
para el lector.
o

Vectores Base.
ad

Cuando un vector c se pueda expresar en terminos de dos vectores linealmente independientes, a y b,


por ejemplo: c = 1 a + 2 b, diremos que a y b forman una base para todos los vectores coplanares
a estos. Igualmente para el caso tridimensional: tres vectores linealmente independientes a, b y c
conformar umeros 1 y 2 para el caso bidimensional se
an una base para los vectores del espacio. Los n
rr

denominan las componentes de c a lo largo de a y b, respectivamente. Equivalentemente, 1 , 2 , 3


seran las componentes de cualquier vector para el caso 3D a lo largo de a, b y c, respectivamente. Esta
nomenclatura ser a mas evidente luego de la proxima seccion.
Bo

1.2.2. Productos de vectores


Hemos sumado y restado vectores, el siguiente paso es multiplicarlos. Basicamente existen dos formas de
multiplicar vectores: el producto escalar y el producto vectorial, veremos a continuacion de que se trata y
sin especificar un sistema de coordenadas para referirlos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 13
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

1.2.3. Producto escalar


Denominaremos producto escalar de dos vectores a y b a un escalar cuyo valor sera igual al producto de
los m
odulos multiplicado por el coseno del angulo que ellos forman

= a b = |a| |b| cos()ha,bi

El significado geometrico del producto escalar es evidente, cuadrante I de la Figura 1.3. El producto escalar
representa la proyeccion de a sobre b y equivalentemente la proyeccion de b sobre a.
De esta definici
on se derivan varias consecuencias las cuales por obvias no dejan de ser importantes:
El producto escalar de un vector consigo mismo, siempre es positivo:
2

ar
= a a = |a| 0,y s a nulo si a es el vector nulo. Esto es, = 0 a = 0. Con esto podemos
olo ser
concluir que |a| = a a = .
El producto escalar es conmutativo:

in
= a b = b a, ya que el
angulo entre los vectores es el mismo y la multiplicacion entre escalares es
conmutativa.

El producto escalar es distributivo:

lim
Esto es, a (b + c) = a b + a c. La demostracion (grafica) puede apreciarse en el cuadrante II de la
Figura 1.3.
La multiplicacion por un escalar :
= = || (a b) = (a) b = a (b) = |a| |b| cos()ha,bi = |a| |b| cos()ha,bi .

Desigualdad de Cauchy-Schwarz.
A partir de la definici

(a b) = |a| |b| cos()ha,bi


re
on de producto interno es inmediata la comprobacion de la siguiente desigualdad:
2 2 2 2
(a b) |a| |b|
2
a b |a| |b|
rP
ya que 0 cos2 ()ha,bi 1.

Del producto escalar surge el Teorema del Coseno.


Es inmediato calcular el producto escalar de un vector consigo mismo, para ello vamos a suponer que
c = a b, con lo cual
o

2 2 2
c = a b c c = (a b) (a b) |c| = |a| + |b| 2 |a| |b| cos()ha,bi
ad

que no es otra cosa que el teorema del coseno y esta ilustrado en el cuadrante III de la Figura 1.3.
Dos vectores no nulos son ortogonales (perpendiculares) si su producto escalar es nulo.
Esta afirmaci
on es inmediata
rr


a b ha,bi = a b = |a| |b| cos()ha,bi = 0 .
2
Bo

1.2.4. Producto vectorial


A diferencia del producto escalar que genera un escalar, el producto vectorial tiene como resultado otro
vector: c = a b (realmente un pseudovector o vector axial en contraposicion a los vectores polares, pero
eso lo veremos mas adelante en la secci
on 1.6.4), con las siguientes caractersticas:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 14
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

El m a |c| = |a| |b| sen()ha,bi . Es claro que el modulo de c representa el area del
odulo de c, ser
paralelogramo cuyos lados est
an formados por a y b (ver el cuadrante V de la Figura 1.3).
Tal y como muestran los cuadrantes IV y V de la Figura 1.3, c tendra como direccion la perpendicular
al plano que forman a y b, y como sentido la regla del pulgar derecho, regla de la mano derecha, o de
manera m as elegante, ser
a positiva cuando la multiplicacion de ab corresponda al sentido antihorario.

Podemos deducir algunas consecuencias de esta definicion.


El producto vectorial es anticonmutativo.
a b = b a, y se sigue de la definicion que expresa el cuadrante IV de la Figura 1.3.

ar
El producto vectorial es distributivo respecto a la suma.
a (b + c) = a b + a c. La demostracion de esto lo dejaremos para mas adelante.
La multiplicaci
on por un escalar.

in
|c| = || |a b| = |(a) b| = |a (b)| = |a| |b| sen()ha,bi = |a| |b| sen()ha,bi

Dos vectores ser


an colineales si su producto vectorial se anula.

lim
Como en el caso cuando se anulaba el producto escalar identificabamos a dos vectores ortogonales,
cuando se anula el producto vectorial tendremos dos vectores paralelos. Es claro que esto se cumple de
inmediato
a k b ha,bi = 0 |c| = |a b| = |a| |b| sen()ha,bi = 0

Si el m
que re
odulo del vector es cero, obvio que es el vector nulo. Ahora bien, tambien de aqu deducimos

c = a b c a = (a b) a = c b = (a b) b = 0 .
rP
1.2.5. Producto triple o mixto
Analicemos ahora el n
umero (pseudoescalar) que proviene de la multiplicacion

V = c (a b) = |c| |(a b)| cos()hc,abi


o

Este producto tambien cumple con algunas propiedades que enunciaremos ahora y demostraremos mas tarde
ad

El producto mixto representa el volumen del paraleleppedo cuyos lados son los vectores a, b y c.
|a b| representa el
area de la base y la altura esta representada por la proyeccion del vector c sobre
la perpendicular al plano de la base que es, precisamente |c| cos()hc,abi .
El producto mixto es cclico respecto a sus factores.
rr

(a b) c = (c a) b = (b c) a
Bo

Esta afirmaci
on se ver
a demostrada mas adelante.
El producto mixto se anula cuando se repite alguno de sus factores.

(a b) a = (a b) b = (a a) c = (b b) c = 0 .

Claramente, si (a b) a (a b) a = 0.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 15
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

Si los tres vectores a, b y c son coplanares (linealmente dependientes) entonces:

(a b) c = 0 ,

dicho de manera m
as elegante, u
til e impactante: tres vectores que cumplen con:

(a b) c 6= 0 ,

son linealmente independientes y forman una base para el espacio tridimensional. Esa base se denomi-
nar ogira (contraria al giro de las manecillas del reloj) si el producto (a b) c < 0 y dextr
a lev ogira
(la convencional base de la mano derecha) si (a b) c > 0.

ar
1.2.6. Ejercicios
1. Las componentes de un vector y la regla para sumar vectores se combinan para introducir la forma
m
as simple de representar un vector como una combinacion lineal de los vectores mas elementales que

in
podemos tener. Estos vectores forman lo que conocemos la base canonica: {i, j, k}, vectores de longitud
unitaria que apuntan en la direcci
on positiva de los ejes x, y y z.
Diga, entonces, si los siguientes vectores forman una base

lim
a)
e1 = 2i + j 3k , e2 = i 4k , e3 = 4i + 3j k
b)
e1 = i 3j + 2k , e2 = 2i 4j k , e3 = 3i + 2j k

re
2. Los siguientes vectores son linealmente independientes?

a = (0, 2, 1) , b = (0, 1/2, 1/2) , c = (0, 2/3, 1/3) .


rP
3. Un paralelogramo tiene un
angulo agudo de /4 y lados a = 1, b = 2. Si consideramos que los lados
son vectores, encuentre:
a) El
area del paralelogramo.
o

b) La proyecci
on de cada lado sobre la direccion del otro.

4. Considere un triangulo cuyos lados estan conformados por los vectores a, b y c = a+b. Con el producto
ad

vectorial entre ellos demuestre la ley del seno:


a b c
= =
sin() sin() sin()
rr

donde , , son los


angulos opuestos a los lados a, b, c respectivamente.
5. Demuestre que el volumen de un tetraedro puede escribirse de la manera siguiente:
Bo

1
V = |a (b c)|
6

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 16
1.3. COMPONENTES, COORDENADAS Y COSENOS DIRECTORES

ar
in
lim
Figura 1.4: Vectores, bases y componentes

1.3. Componentes, coordenadas y cosenos directores


La formulaci
independiza su formulaci
re
on de las leyes fsicas debe hacerse en termino de cantidades vectoriales (tensoriales). Esto
on de un sistema particular de coordenadas, pero llegado el momento de calcular
valores y utilizar estas leyes, es mucho m as conveniente referirla a un sistema de coordenadas particularmente
rP
adaptado a la geometra del problema. En ese caso la ecuacion vectorial se convertira en tantas ecuaciones
como componentes (referidas al sistema de coordenadas utilizado) tengan los vectores en ese sistema de
coordenadas.

1.3.1. Bases, componentes y coordenadas


o

Tal y como mencionamos anteriormente, tres vectores no coplanares cualesquiera son linealmente inde-
pendientes y constituyen una base para el espacio tridimensional. Denominaremos a estos vectores base como
ad

{wi }, y por ser linealmente independientes podremos expresar cualquier vector A como una combinaci on
lineal u
nica, tal y como lo mostramos en el cuadrante I de la Figura 1.4.
Con los vectores base {w1 , w2 , w3 } podemos construir un sistema (oblicuo en general) de coordenadas
al colocarlos con un mismo origen, esto es
rr

A = 1 w1 + 2 w2 + 3 w3
Bo


donde las cantidades 1 , 2 , 3 son n
umeros (no son escalares) que representan las componentes del vector
A a lo largo de cada uno de los vectores base {w1 , w2 , w3 }. Notese que por costumbre (la cual sera evidente
mas adelante) etiquetamos estos n umeros con superndices y la letra que identifica el vector.

M as a
un, cada punto P del espacio viene definido por un radiovector r (P ) OP que une el origen
de coordenadas con el punto P y se le asocian tres n umeros x1 , x2 , x3 , los cuales son las proyecciones

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 17
1.3. COMPONENTES, COORDENADAS Y COSENOS DIRECTORES

n o 
a lo largo de cada uno de los ejes coordenados umeros x1 , x2 , x3 se denominar
0x1 , 0x2 , 0x3 . Los n an
componentes de r (P ) en el sistema de referencia {w1 , w2 , w3 }.
Existe una familia de sistemas de coordenadas en la cual sus vectores base son ortogonales (o mejor
ortonormales), es decir los vectores base {e1 , e2 , e3 } son perpendiculares entre si. Tal y como mostraremos
mas adelante, siempre se puede construir un sistema ortogonal {e1 , e2 , e3 } u ortonormal {i1 , i2 , i3 } a partir
de una base generica de vectores linealmente independientes {w1 , w2 , w3 }. Cuando el sistema sea ortogonal
sus componentes se denominar an rectangulares. Dependiendo del signo del triple producto mixto el sistema
de coordenadas ser ogiro ((e1 e2 ) e3 > 0) o levogiro ((e1 e2 ) e3 < 0), tal y como se muestra en
a dextr
el cuadrante III de la Figura 1.4.
Es costumbre ancestral, por relaciones de dominacion de los derechos sobre los izquierdos (en latn e
italiano los zurdos son siniestros) utilizar la convencion dextrogira donde el producto: (e1 e2 ) e3 > 0, y

ar
en ese caso utilizamos el bien conocido conjunto de vectores unitarios {i, j, k} con los que ya hemos estado
familiarizados
a = ax i + ay j + az k y r (P ) = x i + y j + z k .

in
Tambien es costumbre representar este sistema de coordenadas ortonormal como: i i1 , j i2 y k i3
para recordar que estamos en un sistema de coordenadas cartesianas y utilizaremos los superndices 1, 2, 3
para indicar las componentes del vector.

lim
a = a1 i1 + a2 i2 + a3 i3 y r (P ) = x1 i1 + x2 i2 + x3 i3 .

Obviamente el modulo del vector se podra expresar con la utilizacion del Teorema de Pitagoras
p p
|a| = (a1 )2 + (a2 )2 + (a3 )2 y |r (P )| = (x1 )2 + (x2 )2 + (x3 )2

y la multiplicaci
on por un escalar ser

a

a = a1 i1 + a2 i2 + a3 i3 = a1 i1 + a2 i2 + a3 i3
  
re |a| =
p
(a1 )2 + (a2 )2 + (a3 )2
rP
Igualmente para un vector unitario

a a1 i1 + a2 i2 + a3 i3
a =
u =p
|a| (a1 )2 + (a2 )2 + (a3 )2
o

con lo cual todo vector p


a = |a| u
a = (a1 )2 + (a2 )2 + (a3 )2 u
a .
ad

1.3.2. Cosenos directores


Como se puede apreciar en el cuadrante IV de la Figura 1.4, podemos construir tres triangulos rectangulos
con el radiovector A (P ) como hipotenusa de cada uno de ellos. Los angulos que forma el radiovector A (P )
rr

con cada uno de los ejes coordenados {x, y, z} son {, , } respectivamente, con lo cual

Ax = |A| cos() , Ay = |A| cos() y Az = |A| cos() cos2 () + cos2 () + cos2 () = 1


Bo

pero adem
as
A
A =
u = cos() i + cos() j + cos() k .
|A|

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 18
1.4. ALGEBRA VECTORIAL Y COORDENADAS

1.3.3. Una divisi


on fallida
Uno esperara que para cada una de las definiciones de productos vectoriales, existiera el vector cociente,
es decir, que pudieramos despejar uno de los multiplicados en terminos del otro. La situacion es que esta
operacion no est
a definida unvocamente y lo podemos intuir a partir de una de las definiciones de producto.
Supongamos que tenemos un producto escalar: = a b con lo cual, si pudieramos despejar,digamos 

b = Tendramos entonces definido b de una manera unvoca? La respuesta es NO, ya que = a +d
a a

donde a d, por lo cual existen infinitos b = + d que cumplen = a b.
a

1.3.4. Ejercicios

ar
1. Encuentre la distancia del punto P al origen si P viene dado por el vector posicion r = 2i + 4j 3k. Y
si para un punto arbitrario el vector posicion es r = xi + yj + zk Que superficie describe este vector
cuando |r| = 3?

in
2. Encuentre los cosenos directores y los correspondientes angulos para los siguientes vectores
a) a = i + j + k

lim
b) b = i 2j + 2k
c) c = 4i 2j + 3k
3. Sea {i1 , i2 , i3 } una base ortonormal dextrogira. Verifique que los vectores

forman una base Esta base ser


re
a = i + 2j + 3k , b = i + 5j , c = 3i + 2j + k

a del tipo dextrogiro o levogiro?


rP
1.4. Algebra vectorial y coordenadas
Es posible reescribir toda el
algebra vectorial que hemos visto mediante operaciones referidas a sistemas de
coordenadas, como mostraremos a continuacion. Por simplicidad, anclaremos nuestro sistema de coordenadas
a la base canonica {ii }.
o

1.4.1. Suma y resta de vectores


ad

 
Para los vectores a = a1 i1 + a2 i2 + a3 i3 y b = b1 i1 + b2 i2 + b3 i3 , la suma sera representada por

a + b = a1 i1 + a2 i2 + a3 i3 + b1 i1 + b2 i2 + b3 i3 = a1 + b1 i1 + a2 + b2 i2 + a3 + b3 i3
    
rr

y obviamente, la resta

a b = a1 i1 + a2 i2 + a3 i3 b1 i1 + b2 i2 + b3 i3 = a1 b1 i1 + a2 b2 i2 + a3 b3 i3
    
Bo

con lo cual la distancia entre dos puntos P y M sera


q
2 2 2
d (P, M ) = |(r (P ) = a) (r (M ) = b)| = (x1 y 1 ) + (x2 y 2 ) + (x3 y 3 ) .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 19
1.4. ALGEBRA VECTORIAL Y COORDENADAS

1.4.2. Dependencia e independencia lineal


Ahora es f acil estudiar la dependencia o independencia lineal en coordenadas. Otra vez, tres vectores:
a = a1 i1 + a2 i2 + a3 i3 , b = b1 i1 + b2 i2 + b3 i3 y c = c1 i1 + c2 i2 + c3 i3 , seran linealmente independientes si se
cumple que
a+ b+ c=0 = = =0
Antes de proseguir en forma general, veamos algunos casos particulares

La base canonica: i1 = i (1, 0, 0) , i2 = j (0, 1, 0) , i3 = k (0, 0, 1). Estos vectores son claramente
linealmente independientes y por lo tanto constituyen una base.
Consideremos los vectores: e1 = i (1, 0, 0) , e2 = i + j (1, 1, 0) , e3 = i + j + k (1, 1, 1), al escribir

ar
el sistema de ecuaciones resulta:

= 0, + = 0, + + = 0 = 0, = 0, = 0,

in
con lo cual demostramos que son linealmente independientes y por lo tanto constituyen una base para
los vectores tridimensionales.
En general tendremos que

lim
0 = a1 i1 + a2 i2 + a3 i3 + b1 i1 + b2 i2 + b3 i3 + c1 i1 + c2 i2 + c3 i3
  

a1 + b1 + c1 = 0
1 1 1 2 2 2 3 3 3
a2 + b2 + c2 = 0
  
= a + b + c i1 + a + b + c i2 + a + b + c i3
a3 + b3 + c3 = 0

re
Esto no es otra cosa que un sistema de 3 ecuaciones lineales con 3 incognitas: {, , } y la solucion que
estamos buscando = = = 0 se cumplira si
rP
1 1 1
a b c
a b c = a1 b2 c3 b3 c2 + a2 b3 c1 b1 c3 + a3 b1 c2 b2 c1 6= 0 .
2 2 2   
3 3 3
a b c

Producto escalar
o

Ahora refrasearemos, en termino de una base de vectores ortogonales, lo expresado en la seccion 1.2.3.
Representaremos el producto escalar de dos vectores en una base cartesiana {i1 , i2 , i3 }, que es una base
ad

ortonormal, de la siguiente manera:

a b = a1 i1 + a2 i2 + a3 i3 b1 i1 + b2 i2 + b3 i3 = a1 b1 + a2 b2 + a3 b3
 
rr

ya que por ser ortogonales se tiene que:



i1 i2 = i2 i1 = 0
i1 i1 = i2 i2 = i3 i3 = 1 , y i1 i3 = i3 i1 = 0
Bo

i2 i3 = i3 i2 = 0

Las propiedades del producto escalar en coordenadas cartesianas se comprueban facilmente

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 20
1.4. ALGEBRA VECTORIAL Y COORDENADAS

El producto escalar de un vector consigo mismo, siempre es positivo.


2
= a a = |a| = (a1 )2 + (a2 )2 + (a3 )2 0

y
(a1 )2 + (a2 )2 + (a3 )2 = 0 a1 = a2 = a3 = 0 a=0
p
Adicionalmente |a| = = a a = (a1 )2 + (a2 )2 + (a3 )2
El producto escalar es conmutativo

= a b = b a = a1 b1 + a2 b2 + a3 b3 = b1 a1 + b2 a2 + b3 a3 .

ar
El producto escalar es distributivo:

a (b + c) = a1 i1 + a2 i2 + a3 i3 b1 + c1 i1 + b2 + c2 i2 + b3 + c3 i2 ,
      

in
por lo tanto:

a1 b1 + c1 + a2 b2 + c2 + a3 b3 + c3 a1 b1 + a1 c1 + a2 b2 + a2 c2 + a3 b3 + a3 c3
     
=

lim
1 1 2 2 3 3 1 1 2 2 3 3
 
= a b +a b +a b + a c +a c +a c = ab+ac

La multiplicaci
on por un escalar.

|| (a b) = (a) b = a (b) = a1 b1 + a2 b2 + a3 b3 = a1 b1 + a2 b2 + a3 b3
     

Desigualdad de Cauchy Schwarz.

a b = a1 b1 + a2 b2 + a3 b3
p
re
(a1 )2 + (a2 )2 + (a3 )2
p
(b1 )2 + (b2 )2 + (b3 )2 = |a| |b|
rP
Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo.
Esta afirmaci
on es inmediata

a b ha,bi = a b = |a| |b| cos()ha,bi = 0 ,
2
o

por lo cual
ad

a1 b1 + a2 b2 + a3 b3
a1 b1 + a2 b2 + a3 b3 = |a| |b| cos()ha,bi cos()ha,bi = p p
(a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2

de donde se deduce que para dos vectores perpendiculares


rr

ab 0 = a1 b1 + a2 b2 + a3 b3 .
Bo

Del producto escalar surge el Teorema del Coseno. Es inmediato generalizar el producto escalar de un
vector consigo mismo, para ello suponemos que c = a b, con lo cual
2 2 2
c = a b c c = (a b) (a b) |c| = |a| + |b| 2 |a| |b| cos()ha,bi ,

que no es otra cosa que el teorema del coseno y esta ilustrado en el cuadrante III de la Figura 1.3.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 21
1.4. ALGEBRA VECTORIAL Y COORDENADAS

Producto vectorial
De igual manera, lo que aprendimos en la seccion 1.2.4 ahora lo expresamos en terminos de las compo-
nentes de los vectores en una base ortonormal de la forma

c = a b = a2 b3 a3 b2 i1 + a3 b1 a1 b3 i2 + a1 b2 a2 b1 i3
  

lo anterior se puede organizar como el determinante de la matriz



i1 i2 i3

c = a b = a1 a2 a3

b1 b2 b3

ar
con lo cual
q
2 2 2
|c| = (a2 b3 a3 b2 ) + (a3 b1 a1 b3 ) + (a1 b2 a2 b1 )

in
p p
= (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2 sen()ha,bi

Triple producto mixto

lim
Finalmente, analicemos el n
umero (pseudoescalar) que proviene de la multiplicacion
1
c
c2 c3
V = c (a b) = |c| |a b| cos()hc,abi = a1 a2 a3 .
b1 b2 b3

Obviamente, este n
y c.
re
umero representa del volumen del paraleleppedo cuyos lados quedan definidos por a, b
rP
1.4.3. Ejercicios
1. Dados los vectores

A = i1 + 2i2 + 3i3 , B = 4i1 + 5i2 + 6i3 , C = 3i1 + 2i2 + i3 , D = 6i1 + 5i2 + 4i3
o

a) Encuentre
ad

A + B + C + D, A + B C D, A B + C D, A + B C + D

b) El
angulo entre los vectores A, B, C, D y los vectores base i1 , i2 , i3 .
c) La magnitud de los vectores A, B, C, D.
rr

d ) El
angulo entre A y B y entre C y D.
e) La proyecci
on de A sobre B.
Bo

f ) Son los vectores A, B, C, D coplanares?


g) Encuentre (A + B) (C + D)
h) Los productos A B, B C, C D y los angulos que estos forman con D.
i ) C (A B).
2. Encuentre la intensidad del campo magnetico H = 5i + 3j + 7k en la direccion del vector s = 2i j + 2k.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 22

1.5. APLICACIONES DEL ALGEBRA VECTORIAL

3. Verifique la desigualdad triangular: |a + b| |a| + |b|, para los siguientes vectores


a) a = i + 2j + 3k y b = 2i + j + 7k
b) a = 2i j 2k y b = 3i + 2j + 3k
4. Si a y b son vectores arbitrarios y y escalares, demuestre que

|a + b|2 2 |a|2 + 2(a b) + 2 |b|2

5. Si a, b, c y d son vectores arbitrarios y , , escalares que satisfacen

(b c) + (c a) + (a b) + d = 0

ar
demuestre que si a, b y c son linealmente independientes, entonces
ad bd cd

in
= , = , =
a (b c) a (b c) a (b c)

6. Si a, b, c y d son vectores arbitrarios y , , escalares que satisfacen

lim
a + b + c + d = 0

demuestre que si a, b y c son linealmente independientes, entonces

d (b c) d (c a) d (a b)
= , = , =
a (b c)
rea (b c)

Ayuda: tome el producto escalar de la ecuacion con b c, a c y a b.


a (b c)
rP
7. Demuestre que los vectores a = i+2j+k, b = 2ijk y c = 4i+3j+k son linealmente independientes.
Escoja un vector d y verifique los resultados de los dos u
ltimos ejercicios.

1.5. Aplicaciones del


algebra vectorial
o

Uno de los terrenos mas exitosos de las aplicaciones del algebra vectorial es la geometra analtica. Esto
se realiza en base a la definici
on que hicieramos de radio vector, en la cual a cada punto, P, del espacio le
ad

asoci
abamos un radiovector posici on tal y como lo mostramos en el cuadrante I de la Figura 1.4 .

P (x, y, z) x1 , x2 , x3 r (P ) = x i + y j + z k = x1 i1 + x2 i2 + x3 i3 = xi ii


A partir de esta definici


on todas las propiedades geometricas del espacio las podemos construir con vectores.
rr

1.5.1. Rectas y vectores


Bo

La ecuaci
on de la recta en termino de vectores la definiremos fijando uno de sus puntos, digamos:

r (P1 ) X (P1 ) = X1 = x1 i + y1 j + z1 k = x1(1) i1 + x2(1) i2 + x3(1) i3 (x1 , y1 , z1 ) ,

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 23

1.5. APLICACIONES DEL ALGEBRA VECTORIAL

ar
in
Figura 1.5: Geometra analtica y vectores cartesianos

lim
y un vector que indique su direcci
on, digamos A = A1 i + A2 j + A3 k (ver cuadrante I de la Figura 1.5) con
lo cual la ecuaci
on de una recta en lenguaje vectorial sera:


x = x1 + A1

re
X = X1 + A x1 i + y1 j + z1 k+ (A1 i + A2 j + A3 k)








y = y1 + A2

z = z1 + A3
rP
donde X = x i + y j + z k es el conjunto de puntos genericos que cumple con la ecuacion de la recta en 3D.
Existe una manera m as elegante, como veremos en la seccion siguiente, de reescribir las ecuaciones
anteriores utilizando la notaci
on de ndices, las ecuaciones ahora son mas evidentes:

X = X1 + A xi ii = xi(1) ii + Ai ii xi = xi(1) + Ai para i = 1, 2, 3 .


o


donde: (x, y, z) x1 , x2 , x3 y (i, j, k) (i1 , i2 , i3 ).
ad

N otese que efectivamente se cumplen tres ecuaciones escalares y cada una de ellas tiene la forma de una
recta. Adem as, tal y como se muestra la Figura 1.5 el punto generico (x, y, z) lo describe (sobre la recta) la
variaci on del m odulo de A mediante la constante de proporcionalidad . Si se requiere describir una recta
que pase por dos puntos: (x1 , y1 , z1 ) y (x2 , y2 , z2 ) entonces una vez seleccionado uno de los puntos (digamos
(x1 , y1 , z1 )) seleccionamos el vector A = r (P2 ) r (P1 ) como la resta de los dos radiovectores a los puntos
rr

P2 y P1 . Esto es
X1 + X2 X1 X
X = X1 + (X2 X1 ) X = , con = .
1 X2 X
Bo

Aqu la divisi on entre vectores tiene sentido porque no es una division entre vectores genericos es una divi-
si
on entre vectores que tienen la misma direccion Notese ademas que, lo mismo ocurre cuando despejamos
de la ecuaci on de la recta

X X1 xi xi(1) x x1 y y1 z z1
= xi = xi(1) + Ai = i
= = =
A A Ax Ay Az

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 24

1.5. APLICACIONES DEL ALGEBRA VECTORIAL

y equivalentemente ocurre cuando despejamos de la ecuacion de la recta que pasa por dos puntos.

X X1   xi xi(1) x x1 y y1 z z1
= xi = xi(1) + xi(2) xi(1) = i i
= = =
X2 X1 x(2) x(1) x2 x1 y2 y1 z2 z1

1.5.2. Planos y vectores


Ocurre exactamente lo mismo cuando construimos la ecuacion vectorial para un plano. En general una
superficie la define su vector normal (perpendicular). En el caso de una superficie plana (un plano) tendr a
una unica normal que lo define, por lo tanto, un plano vendra definido por su vector perpendicular en un
punto, digamos Q = P1 : (x1 , y1 , z1 ). La ecuacion vectorial del plano vendra definida por todos los vectores

ar
P Q tales que sean perpendiculares a un determinado vector A (ver cuadrante II de la Figura 1.5). Donde
el punto P es un punto generico (x, y, z) que define un radiovector. La ecuacion vectorial del plano ser a
simplemente

in


A P Q = A r (P ) r (P1 ) = 0 A (r r1 ) = 0 A r = A r1
| {z } | {z }
B b

lim
Esto es, se tiene que cumplir la condici
on

(A1 i + A2 j + A3 k) [(x i + y j + z k) (x1 i + y1 j + z1 k)] = 0

(A1 i + A2 j + A3 k) [(x x1 ) i + (y y1 ) j + (z z1 ) k] = 0
re
A1 (x x1 ) + A2 (y y1 ) + A3 (z z1 ) = 0
rP
con lo cual la ecuaci
on del plano queda como siempre la hemos conocido

A1 x + A2 y + A3 z A1 x1 A2 y1 A3 z1 = 0 A1 x + A2 y + A3 z = b = A1 x1 + A2 y1 + A3 z1

es decir, de manera m
as compacta
o

Ai xi Aj xj1 = 0 Ak xk = b = Al xl1
ad

Es claro que A r1 = b es la proyecci on del radiovector r (P1 ) sobre la perpendicular que define al plano. Por
lo tanto ser
a la distancia entre el plano y el origen de coordenadas. Si b = 0 el plano pasa por el origen de
coordenadas.
Consideremos ahora el cuadrante III de la Figura 1.5. All estan especificados tres puntos en el espacio
rr

caracterizados por sus correspondientes radiovectores posicion: r (P1 ) = r1 , r (P2 ) = r2 y r (P3 ) = r3 . Estos
tres puntos seran coplanares si

(r1 r2 ) [(r2 r3 ) (r3 r1 )] = 0 mnl (xm m n n l l



1 x2 ) (x2 x3 ) x3 x1 = 0
Bo

y la ecuaci
on vectorial del plano vendr
a dada por

(r r1 ) [(r2 r1 ) (r3 r1 )] = 0 .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 25

1.6. ALGEBRA VECTORIAL CON INDICES

1.5.3. Ejercicios
1. Para las rectas dadas a continuacion encuentre los vectores posicion para dos puntos diferentes sobre
la recta y un vector unitario paralelo a la recta L.
3x1 2y+3
a) L : 4 = 2 = 2 3z
2x+1 3y+2 24z
b) L : 3 = 3 = 1

2. Dada una linea recta L1 que pasa a traves de los puntos (2, 3, 1) y (1, 4, 6) encuentre:
a) El vector posici
on de un punto sobre la recta y un vector paralelo a esta.
b) Una recta L2 paralela a L1 y que pase por el punto (1, 2, 1)

ar
3. Una linea recta tiene como ecuacion vectorial: r = a + b, donde a = 3j + 2k y b = 2i + j + 2k.
Encuentre la ecuaci
on cartesiana de la recta y las coordenadas de tres puntos sobre la recta.
4. Una linea recta pasa por el punto (3, 2, 3) y paralela al vector a = 2i + 3j 3k. Encuentre la ecuaci
on

in
cartesiana de la recta y las coordenadas de tres puntos sobre la recta.
5. Encuentre la ecuaci
on del plano con normal A y que contiene el punto P cuando:

lim
a) A = 2i 3j + k, P = (1, 0, 1)
b) A = i 2j + 2k, P = (2, 3, 4)
6. Dado un plano que pasa por el punto (2, 3, 5) y con vector normal A = 2i + k, encuentre la forma
cartesiana de la ecuaci
on del plano.
7. El
re
angulo entre dos planos se define como el angulo entre sus normales. Encuentre el angulo entre los
siguientes planos
a) x + 3y + 2z = 4 y 2x 5y + z = 2
rP
b) 3x + 2y 2z = 4 y 2x + y + 2z = 1

1.6.
Algebra vectorial con ndices
Antes de comenzar con la presentaci on de este esquema de calculo cabe aclarar algunas costumbres y
o

convenciones con la notaci


on de ndices.
ad

1.6.1. Convenci
on de Einstein
1. Los ndices repetidos (arriba y abajo) indicaran suma por los valores que tomen los ndices. Las com-
ponentes de los vectores tendr an ndices arriba y los vectores base abajo:
rr

3
X
a = a1 e1 + a2 e2 + a3 e3 = am em a = am em = ai ei .
m=1
Bo

2. Los ndices repetidos son mudos (no importa la letra que lo etiquete) y representan suma. As
K j Aj = K m Am = K 1 A1 + K 2 A2 + K 3 A3 = B .

En este punto del discurso, la posici


on de los ndices (arriba y abajo) solo tiene sentido estetico y solo
as indican suma. M
as adelante veremos que representan cantidades distintas.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 26

1.6. ALGEBRA VECTORIAL CON INDICES

3. Llamaremos contracci
on cuando sumamos respecto a un par de ndices, vale decir:
X
Aii = A11 + A22 + A33 = Aii = A11 + A22 + A33
i

Las cantidades con dos o m as ndices las llamaremos componentes de tensores, son arreglos bidimen-
sionales (tridimensionales, tetradimensionales, seg un el numero de ndices) y seran considerados en detalle
posteriormente. Por ahora, contentemonos con saber que cosas son cantidades con dos ndices. Es claro que
la contraccion de ndices convierte un conjunto de n umeros (i j) 1, en un solo numero.
Los ndices libres (aquellos que no estan sumados) indican el n umero de objetos disponibles y deben
mantenerse. Por ejemplo:

ar
1

K1 A1 + K12 A2 + K13 A3 = B1



Bi = Kik Ak K21 A1 + K22 A2 + K23 A3 = B2

in




1
K1 A1 + K12 A2 + K13 A3 = B1

con lo cual Bi = Kik Ak representa 3 ecuaciones. La operacion Bij = Kik Akj representa 9.

lim
La delta de Kronecker1 ik lleva un ndice arriba y uno abajo y representa ik = 1 si i = k, es nula en los
otros casos. Por ejemplo:
=0 =0 =0 =0 =0 =0
z}|{ z}|{ z}|{ z}|{ z}|{ z}|{
k
Kij ki = 1
K1j 11 + 1
K2j 12 + K3j
1
13 + K1j
2
21 + K2j
2
22 + K3j
2
23 + K1j
3
31 + K2j
3
32 + K3j
3
33

es decir
|{z}
=1

k i
Kij k
k = Kkj i
= Kij
re 1
|{z}
=1

= K1j 2
+ K2j 3
+ K3j .
|{z}
=1
rP
Adem as de la delta de Kronecker introduciremos el smbolo de permutacion de Levi-Civita2 ijk para el
caso de tres dimensiones, vale decir i, j, k = 1, 2, 3

+1 cuando {(i, j, k) = (1, 2, 3) ; (3, 1, 2) ; (2, 3, 1)} permutacion cclica
ijk = ijk = 1 cuando {(i, j, k) = (1, 3, 2) ; (3, 2, 1) ; (2, 1, 3)} permutacion impar o anticclica
o

0 cuando {i = j , i = k j = k}

ad

y quiere decir que es distinto de cero cuando todos los ndices son diferentes: 1 si la permutacion de ndices
es cclicas (o par) y 1 si la permutaci
on es anticclica (o impar).
Si queremos calcular, por ejemplo: ci = ijk aj bk , entonces resulta:

c1 = 111 a1 b1 + 112 a1 b2 + 113 a1 b3 + 121 a2 b1 + 122 a2 b2 + 123 a2 b3 + 131 a3 b1 + 132 a3 b2 + 133 a3 b3


rr

c2 = 211 a1 b1 + 212 a1 b2 + 213 a1 b3 + 221 a2 b1 + 222 a2 b2 + 223 a2 b3 + 231 a3 b1 + 232 a3 b2 + 233 a3 b3


c3 = 311 a1 b1 + 312 a1 b2 + 313 a1 b3 + 321 a2 b1 + 322 a2 b2 + 323 a2 b3 + 331 a3 b1 + 332 a3 b2 + 333 a3 b3
Bo

1 LEOPOLD KRONECKER (7 diciembre 1823 Legnica, Polonia, 29 diciembre 1891, Berlin, Alemania) Matem atico polaco con
importantes contribuciones en teora de numeros, funciones elpticas y a
lgebra, as como la interrelaci
on entre estas disciplinas.
2 TULLIO LEVI-CIVITA (1873 Padova, Veneto, 1941 Roma, Italia) Ge ometra italiano y uno de los desarrolladores del
Calculo Tensorial que m
as tarde sera utilizado por Einstein y Weyl como el lenguaje de la Relatividad General.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 27

1.6. ALGEBRA VECTORIAL CON INDICES

con lo cual 1

c = 123 a2 b3 + 132 a3 b2 = a2 b3 a3 b2



ci = ijk aj bk c2 = 231 a3 b1 + 213 a1 b3 = a3 b1 a1 b3




3
c = 312 a1 b2 + 321 a2 b1 = a1 b2 a2 b1
A continuacion enumeramos algunas propiedades de la delta de Kronecker y del smbolo de permutaci
on
de Levi-Civita, dejamos al lector su demostracion. Ellas son:

jj = 3 ,
jkm ilm = ji kl ki jl = ji kl jl ki ,

ar
jmn imn = 2ji ,
ijk ijk = 6 .

in
1.6.2. Los vectores y los ndices
Disponemos ahora de una manera m as elegante para escribir ecuaciones que involucren vectores. Veamos

lim
que forma toma el
algebra vectorial con esta nueva notacion.

Sumas de vectores
La suma de vectores ser
a expresada de la siguiente manera

Producto escalar


re
a + b = ai ei + bi ei = ai + bi ei = ci ei ci = ai + bi con i = 1, 2, 3
rP
A partir da ahora y de forma equivalente, expresaremos el producto escalar en termino de los ndices. De
forma y manera que
a b = |a| |b| cos()ab = ai bi con i = 1, 2, 3

Producto vectorial
o

En terminos de ndices, la componente i del producto vectorial se puede expresar como


ad

i
ci = (a b) = ijk aj bk con i, j, k = 1, 2, 3

todas las particularidades de producto vectorial ahora descansan en las propiedades del smbolo de Levy
Civita.
rr

Triple producto mixto


Analicemos ahora el n
umero (pseudoescalar) que proviene de la multiplicacion
Bo

1
c c2 c3
i j k i j k

c (a b) = |c| |a b| cos()hc,abi = c ijk a b = ijk c a b = a1 a2 a3

b1 b2 b3

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 28

1.6. ALGEBRA VECTORIAL CON INDICES

1.6.3. Un par de c
alculos ilustrativos
Mostraremos a continuaci on dos casos de identidades vectoriales que pueden ser facilmente demostradas
mediante la utilizaci
on de ndices.

1. a (b c) = (c a) b (a b) c
El resultado ser
a un vector, por lo tanto
i
(a (b c)) = ijk aj (b c)k = ijk aj kmn bm cn = ijk kmn aj bm cn = ijk mnk aj bm cn
i j j i
n aj bm cn = m
i j
n aj bm cn m
j i
n aj bm cn

= m n m
i m j
= m b n aj cn ni cn m
j
aj bm = bi an cn ci aj bj

ar
| {z } |{z}
(ca) (ab)
i i
= b (c a) c (a b) = b (c a) c (a b)

in
En la segunda lnea hemos hecho uso de la identidad

jkm ilm = ji kl ki jl = ji kl jl ki

lim
2. (a b) (c d) = (a c) (b d) (a d) (b c)

El lado derecho es un escalar, por lo tanto:


l
(a b) (c d) = (a b) (c d)l
re
= ljk aj bk lmn cm dn = ljk lmn aj bk cm dn
= jkl mnl aj bk cm dn = m j k k j
n m n aj bk cm dn

rP
j k
= m n aj bk cm dn m
k j
n aj bk cm dn
j
= m aj cm k bk dn k bk cm j aj dn
| {z }|n {z } |m {z }|n {z }
(ac) (bd) (bc) (ad)

= (a c) (b d) (b c) (a d) .
o

1.6.4. Escalares, pseudoescalares, vectores y pseudovectores


ad

La diferencia entre vectores polares y axiales proviene del siguiente comportamiento bajo transformaciones
de coordenadas y bases. Un vector polar (normal, com un y corriente) queda invariante bajo la siguiente
transformaci
on (reflexi
on)
rr


ei ei
= a = ai ei ai (ei ) = ai ei = a .

ai ai
Bo

Mientras que un pseudovector o vector axial cambia de signo cuando las componentes de los vectores y sus
vectores base que lo generan tambien lo hacen:

ei ei
ai ai = c = a b ijk (aj ) (bk ) (ei ) = ci ei = c
 
bi bi

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 29

1.6. ALGEBRA VECTORIAL CON INDICES

es decir

a b = a2 b3 a3 b2 e1 + a3 b1 a1 b3 e2 + a1 b2 ay b1 e3 ,
  

luego de la reflexi
on:

a2 b3 a3 b2 (e1 ) + a3 b1 a1 b3 (e2 )
        
ab=
+ a1 b2 a2 b1 (e3 )
    

= a2 b3 a3 b2 e1 + a3 b1 a1 b3 e2 + a1 b2 a2 b1 e3 = (a b)
    

ar
Existen varias e importantes cantidades fsicas que vienen representadas por pseudovectores, entre ellas
mencionamos:
Velocidad Angular: v =r
Cantidad de Movimiento Angular: L=rp

in
Torque: =rF
B
Campo de Induccion Magnetica: = E
t

lim
Adicionalmente el volumen, V = c (a b), como era de esperarse, no es invariante bajo el cambio del
espacio

ci ci
ai ai = V = c (a b) = ci ijk aj bk (ci ) ijk (aj ) (bk ) = V ,
 
bi bi

el volumen es un pseudoescalar. re
Mientras que los escalares si son invariantes bajo esta transformacion
rP
ai ai

= = a b = ai bi ai (bi ) = .

bi bi

En general tambien tendremos multiplicacion entre algunos de estos objetos, con lo cual construiremos
otros objetos.
o

Rotacion de coordenadas: Ya que hablamos de invariancia de cantidades, existe otro tipo de transfor-
ad

macion de coordenadas diferente a las reflexiones y que se denomina: rotacion de coordenadas.


Consideremos un sistema de coordenadas cartesiano (x, y, z) y su base canonica {i, j, k}. Si rotamos el
sistema de coordenadas un angulo alrededor del eje z tendremos un nuevo sistema de coordenadas (
x, y, z)
y una nueva base {i, j, k}.
La regla de transformacion que relaciona ambos sistemas de coordenadas es
rr


x = x cos() y sen() x = x cos() + y sen()
y = x sen() + y cos() y = x sen() + y cos()
z = z z = z

Bo

Mientras que las bases transformar


an, como veremos mas adelante, como:

i =

i cos() + j sen()
j = i sen() + j cos()

k = k

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 30

1.6. ALGEBRA VECTORIAL CON INDICES


umeros a1 , a2 , a3 definen las componente de un vector a = a1 i + a2 j + a3 k
Diremos que un triplete de n
si estas cantidades transforman bajo la rotacion predicha de la siguiente manera:
a 2 = a1 sen() + a2 cos() , a
1 = a1 cos() + a2 sen() , a 3 = a3

Si a1 , a2 , a3 no transforman de esta manera, se dice que no son covariantes y no representan las com-
ponentes de un vector.
Notemos tambien lo siguiente, al usar la notacion de ndices podemos escribir las ecuaciones de transfor-
maci
on de coordenadas as

x = x cos() + y sen() 1 = 11 x1 + 21 x2 + 31 x3
x
y = x sen() + y cos() x 2 = 12 x1 + 22 x2 + 32 x3 x i = ji xj , i, j = 1, 2, 3
3 3 1 3 2 3 3
z = z x
= 1 x + 2 x + 3 x

ar

Se puede ver f ji , en coordenadas cartesianas, vienen dadas por


acilmente que las cantidades

i
x

in
ji =

xj
Como la transformaci
on de coordenadas es invertible, se tiene que

lim
xj
xj = ij x
i , con: ij =
i
x
Y cumplen con la siguiente condici
on de ortogonalidad:
ki ij = kj

re
Y por lo tanto, las componentes de un vector transformaran de la manera siguiente:
i =
a ji aj .
rP
1.6.5. Ejercicios
1. Verifique las siguientes identidades
a) A (B C) + B (C A) + C (A B) = 0
b) (A B) (C D) = B[A (C D)] A[B (C D)]
o

c) (A B) (C D) + (B C) (A D) + (C A) (B D) = 0
ad

d ) A (B A) = 0
e) (A B) (A B) = A2 B 2 (A B)2

AC AD

f ) (A B) (C D) =
rr



BC BD

2. Demuestre la siguiente tabla de relaciones


Bo

vector vector = escalar


vector pseudovector = pseudoescalar
pseudovector pseudovector = escalar
vector vector = pseudovector
vector pseudovector = vector
pseudovector pseudovector = pseudovector

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 31
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

ar
in
lim
Figura 1.6: Vectores variables

3. Demuestre que
re
ki ij = kj

rP
y adem
as que, como un caso especial, establecer la relacion con los cosenos directores que satisfacen

cos()2 + cos()2 + cos()2 = 1

4. Demuestre si las siguientes componentes son componentes de un vector.


o

a) (y, x)
ad

b) (x, y)
c) (x y, x + y)
d ) (x + y, x y)
rr

1.7. Un comienzo a la derivaci


on e integraci
on de vectores
Bo

1.7.1. Vectores variables


Los vectores podr an ser constantes o variables. Ahora bien, esta caracterstica se verificara tanto en las
componentes como en la base. Esto quiere decir que cuando un vector es variable podran variar su m odulo,
su direcci
on, su sentido, o todo junto o por separado. Obviamente esta variabilidad del vector depender a de

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 32
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

la base en la cual se exprese, por lo cual un vector podra tener una componente constante en una base y no
constante en otra, vale decir 0
A (t) = Ak (t) ek (t) = Ak ek0 (t) .
Notese que hemos utilizado una base {ek (t)} de vectores variables a diferencia de la tradicional base de
vectores cartesianos, los cuales son constantes en modulo, direccion y sentido (ver los cuadrantes I y II de
la Figura 1.6). Mas a
un, tal y como se muestra en cuadrante II de la Figura 1.6, todo vector variable podr a
ser expresado como la suma de una variable, a (t), mas otro constante c

A (t) = a (t) + c .

1.7.2. Derivaci
on

ar
De esta manera, cuando uno piensa en un vector variable A (t) uno rapidamente intenta establecer un
cociente incremental:
A (t + t) A (t) A (t) dA (t)

in
lm = lm =
t0 t t0 t dt
el cuadrante IV de la Figura 1.6 ilustra gr
aficamente este cociente incremental.
Como siempre, las propiedades de esta operacion derivacion seran:

lim
d d d
[A (t) + B (t)] = A (t) + B (t) ,
dt dt  dt  
d d d
[ (t) A (t)] = (t) A (t) + (t) A (t) ,
dt dt dt
   

d
d
dt
[A (t) B (t)]

[A (t) B (t)]
=

=

d
dt
d
re
A (t) B (t) + A (t)

A (t) B (t) + A (t)
d
dt

B (t) ,

d

B (t) .
rP
dt dt dt

Ahora bien, esto implica que


 
k dA (t) d Ak (t) ek (t) dAk (t) dek (t)
A (t) = A (t) ek (t) = = ek (t) + Ak (t)
dt dt dt dt
o

con lo cual hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de la base
y componentes. Habr a sistemas de coordenadas (bases de vectores) que seran constantes y otros en los
ad

cuales sus vectores bases cambiar


an en su direccion. El primer termino de la u
ltima ecuacion representa la
variaci
on del m
odulo, y el segundo muestra la contribucion de los cambios en direccion del vector. Mas a
un,
mostraremos apoy andonos en la ilustraci
on de el cuadrante III de la Figura 1.6 que, independientemente
del sistema de coordenada, el cambio en el modulo apunta en la direccion del vector, mientras que las
rr

contribuciones en direcci
on apuntan en la direccion perpendicular al vector. Esto es:

dA (t) d |A (t)|
= k + |A (t)| u
u , k u
con u = 0 .
Bo

dt dt
Es f
acil convencernos de la forma del primer termino. Siempre podemos representar un vector como su
m
odulo y un vector unitario en la direcci
on apropiada. Esto es

dA (t) (t)]
d [|A (t)| u d |A (t)| d
u (t)
A (t) = |A (t)| u
(t) = = (t) + |A (t)|
u ,
dt dt dt dt

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 33
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

2
Adicionalmente: |A (t)| = A (t) A (t), por lo tanto
h i
2
d |A (t)| d [A (t) A (t)] d |A (t)| dA (t)
= 2 |A (t)| 2A (t) ,
dt dt dt dt
con lo cual, al despejar de esta u
ltima ecuacion
d |A (t)| A (t) dA (t) dA (t)
(t)
=u ,
dt |A (t)| dt dt
| {z }
(t)
u

para que finalmente

ar

dA (t) d |A (t)|
(t)
u =


dt dt
 
dA (t) d |A (t)| d
u (t)
(t)
u (t)
=u (t) + |A (t)|
u
dt dt dt

in

d
u (t)
(t)
u =0


dt
Es decir que el cambio en el m odulo de un vector se manifiesta en la direccion del mismo vector, tal y

lim
como era intuitivo suponer. Adicionalmente, vemos que el vector siempre sera perpendicular a su derivada.
Gr
aficamente podemos apreciarlo en el cuadrante IV de la Figura 1.6 , pero tambien surge analticamente si
derivamos el vector unitario en la direcci on de A (t)
 
2
u (t) u
d [ (t)] d |
u (t)| d (1) d
u (t) d
u (t)
= 0=u
(t) u (t) ,

es decir
dA (t)
dt

(t)]
d [|A (t)| u
dt

d |A (t)|
dt
re dt

d
u (t) d |A (t)|
dt
rP
= = (t) + |A (t)|
u = k + |A (t)| u
u .
dt dt dt dt dt
Supongamos que ahora definimos un vector


u
v k = u


u
v k




o


= v con v
u =u k
u
v






ad

k u
u = v

donde es el
angulo de rotaci
on del vector A (t) (ver cuadrante V de la Figura 1.6). Claramente

[A (t + t) ] u
A = [A (t + t) sen ()] u A = A (t) ,
rr

entonces
   
A A dA (t) d (t)
A A = A (t) u
u = A (t) = A (t) ,
v
Bo

t t t dt dt

donde hemos identificado = d(t)


dt v. Podemos ir m as alla observando el cuadrante V de la Figura 1.6,
vemos que si suponemos que el m
odulo del vector es constante, entonces
 
d |A (t)| dA (t) dA (t)
=0 = |A (t)| u
u
u = A (t) .
dt dt dt

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 34
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

1.7.3. Velocidades y aceleraciones


El radio vector posici
on de una partcula genera los vectores velocidad y aceleracion

dr (t) dv (t) d2 r (t)


r = r (t) v (t) = a (t) = = ,
dt dt dt2
ahora bien
r = r
ur = xi + yj + zk , r = cos() i + sen() j .
con: u
Si suponemos que la partcula describe una trayectoria entonces

r = r (t) x = x (t) i = const

ar
y = y (t) ; u r = u
r (t) ; j = const
= (t) z = z (t) k = const

Es muy com un denotar a la derivada temporal sobre funciones de una variable con un punto, es decir,

in
podemos utilizar la siguiente notaci
on
dg (t)
g(t)
,
dt

lim
con lo cual
d
ur d [cos( (t))i + sen( (t))j] u ,
= = (t)[ sen( (t))i + cos( (t))j] = (t)
dt dt | {z }

u

Ya que

|
ur | =
p
ur u
p re
r = [cos( (t)) i + sen( (t)) j] [cos( (t)) i + sen( (t)) j] = 1
rP
p p
|
u | = u u
= [ sen( (t)) i + cos( (t)) j] [ (sen( (t)))i + cos( (t))j] = 1 ,

entonces:
u
u r u
r = u = [ sen( (t)) i + cos( (t)) j] [cos( (t)) i + sen( (t)) j] = 0 .
M
as a
un
o

d
u d [sen( (t)) i + cos( (t)) j] [cos( (t)) i + sen( (t)) j] = (t)
ur .
ad

= = (t)
dt dt
Para una partcula que sigue un movimiento arbitrario, su trayectoria vendra descrita, en coordenadas
cartesianas, por:
r = x (t) i + y (t) j + z (t) k ,
rr

Su velocidad ser
a
dr (t) d [x (t) i + y (t) j + z (t) k]
Bo

v (t) = = = x(t)i
+ y(t)j
+ z(t)k
= vx (t) i + vy (t) j + vz (t) k ,
dt dt

Y su aceleraci
on

a (t) = v x (t)i + v y (t)j + v z (t)k = ax (t) i + ay (t) j + az (t) k .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 35
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Mientras que en coordenadas polares las ecuaciones son:

r (t)]
d [r (t) u d
ur (t)
r (t) v (t) =
r (t) = r (t) u = r(t)
ur (t) + r (t) ,
dt dt
Velocidad:
u (t) ,
r (t) + r (t) (t)
v (t) = vr (t) u

Aceleraci
on:
h i h i
u (t)
r (t) + r (t) (t)
d vr (t) u u (t)
d r (t) (t)
dv (t) r (t)]
d [vr (t) u
a (t) = = = +
dt dt dt dt

ar
d
ur (t) u (t) + r (t) (t) d
u (t) + r (t) (t) u (t)
= r(t)
ur (t) + r(t)
+ r(t)
(t)
dt dt

in
  2  n o
=
r(t) r (t) (t) r (t) + 2 r(t)
u + r (t) (t)
(t) (t) .
u

lim
Claramente para el caso de un movimiento circular


r (t)
r (t) = R u


dR
u
r = R = const =0 v (t) = R (t)
dt



2u
a (t) = R (t)
re u (t)
r (t) + R (t)
rP
De aqu podemos ver claramente que el vector velocidad v (t) y el vector posicion r (t) son ortogonales. La
velocidad, v (t) , siempre es tangente a la trayectoria r (t) y en este caso la trayectoria es una circunferencia.
En general el vector
X X X Z
rmed = r (ti ) = (r (ti + ti ) r (ti )) lm r (ti ) = dr (t) = r (t) ,
t0
o

i i i
P
es decir dr (t) = lmt0 r (ti ) es tangente a la trayectoria. Es claro que
ad

dx (t) dy (t) dz (t)


dr (t) = d [x (t) i + y (t) j + z (t) k] i+ j+ k.
dt dt dt
Tal y como mencionamos arriba, para el sistema de coordenadas cartesiano podemos definir un vector
rr

(en este caso) velocidad angular tal que:



u r = u
v
Bo

||









v
u =ur v (t) = r (t)
||





r u
u v =



||

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 36
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Supongamos por simplicidad que elegimos el sistema de coordenadas cartesiano, donde r esta en el
plano x, y. En este caso es inmediato comprobar que v i = ijk j xk , y dado que r y v tienen u
nicamente
componentes 1 y 2 entonces, necesariamente tiene u
nicamente componente 3, Es decir
1
r = ri ei v = 1j2 j x2
= || e3 = k ,
v = v i ei
2
v = 2j1 j x1

como
r = x (t) i + y (t) j ,
entonces
dr (t)

ar
v (t) =
= vx (t) i + vy (t) j = r (t) = (t)k [x (t) i + y (t) j] ,
dt
se ver
a m
as claro en coordenadas polares, esto es

in
dr (t) u (t) = [|| u
v (t) = =r (t) (t) n (t)] [r (t) u
r (t)] , |r (t)| = const
dt
u
=r (t) (t) (t) = || r (t) u || .
(t) (t)

lim
| {z }
v

1.7.4. Vectores y funciones


Antes de continuar con la integraci
on repensemos algunas funciones de tipo (x, y, z) y V (x, y, z). Estas
funciones son sin duda funciones de varias variables:

= (x, y, z) , re
V = V (x, y, z) = iVx (x, y, z) + jVy (x, y, z) + kVz (x, y, z) .
rP
Un par de reflexiones se pueden hacer en este punto, primeramente, dado que hemos relacionado un punto
del espacio con un radio vector posici on, entonces

= (x, y, z) (r)
P(x,y,z) (x, y, z) r = x i + y j + z k
o

V = V (x, y, z) V (r)

La primera funci
on, (r), ser
a una funci
on escalar de argumento vectorial o, simplemente un campo escalar
ad

y la segunda, V (r), se conoce como una funcion vectorial de argumento vectorial o campo vectorial. Como
hemos dicho, este tipo de funciones y las operaciones que pueden ser realizadas con ellas, y su significado,
ser
an analizadas en detalle mas adelante durante el desarrollo de este curso.
En segundo lugar, siempre podremos parametrizar las coordenadas y tendremos
rr

= (t) = (x (t) , y (t) , z (t)) ,


V = V (t) = V (x (t) , y (t) , z (t)) = Vx (x (t) , y (t) , z (t)) i + Vy (x (t) , y (t) , z (t)) j + Vz (x (t) , y (t) , z (t)) k .
Bo

Este caso lo hemos encontrado en montones de situaciones, por ejemplo, el movimiento parabolico viene

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 37
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

descrito por vectores velocidad y posici


on dados por:

vx = v0x
v(t) = gt k + v0 = gt k + (v0x i + v0y j + v0z k) vy = v0y
vz = v0z gt


g 2 g 2 x = v0x t
r(t) = t k + v0 t = t k + (v0x i + v0y j + v0z k) t y = v0y t
2 2
z = v0z t g2 t2

Derivada de funciones (r (t))

ar
Al derivar una funci
on de argumento vectorial tambien se aplica la regla de la cadena. Esto es, si

(r (t)) = (x (t) , y (t) , z (t))

in
entonces:
d (r (t)) (x (t) , y (t) , z (t)) dx (t) (x (t) , y (t) , z (t)) dy (t) (x (t) , y (t) , z (t)) dz (t)

lim
= + +
dt x dt y dt z dt

   
(x, y, z) (x, y, z) (x, y, z) dx (t) dy (t) dz (t)
= i+ j+ k i+ j+ k
x y z dt dt dt

= (x (t) , y (t) , z (t))


dr (t)
dt
,
re
rP
donde hemos representado

(x, y, z) (x, y, z) (x, y, z)


k = i xj ii = ,i xj ii ,
 
(r (t)) i+ j+
x y z

y lo llamaremos el gradiente de la funci on (r (t)).


o

El gradiente de un campo escalar es uno de los objetos mas u tiles que encontraremos en el estudio de
problemas de fsica-matem atica, el cual lo utilizaremos por ahora de manera operacional. Es bueno recordar
ad

que emerge como consecuencia de una derivacion contra un parametro. El gradiente mide el cambio de la
funcion (x, y, z).
La idea de gradiente nos lleva a considerar a como un operador vectorial que act ua sobre la funci
on
escalar de variable vectorial (r (t)). Es decir, y con un poquito de imaginacion
rr

 

(r (t)) i+ j+ k (x, y, z) = ii i (x, y, z)
x y z
Bo


 

() = i+ j+ k () = ii i () .
x y z

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 38
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Derivada de funciones V (r (t))


De modo que inspirados en la regla de la cadena de una funcion escalar de variable vectorial podemos
comprobar que

dV dVx (x, y, z) dVy (x, y, z) dVz (x, y, z) dV i (x, y, z)


= i+ j+ k= ii
dt dt dt dt dt
por consiguiente,
 si V,
 tiene por componentes cartesianas (Vx , Vy , Vz ) las componentes del vector derivado
x dVy
an dV
ser dt , dt , dVz
dt . Con lo cual cada componente

  
d V i (x (t) , y (t) , z (t)) d V i xj (t) V i xj dxk (t)
 
dr (t)

ar
= = = V i (x, y, z) ,
dt dt xk dt dt

en terminos vectoriales

in
 
dV dr (t) d ()
= V (v ) V = (v ) () v i i () ,
dt dt dt

lim
con v la derivada del radiovector posici
on r (t), es decir, la velocidad. Entonces, estamos viendo que el cambio
del vector V respecto al tiempo es el cambio de sus componentes en la direccion de la velocidad.
Si se nos ocurre calcular la derivada del vector velocidad para encontrar la aceleracion tendremos que
nos quedara expresada como
dv
a= = (v ) v ai = (v ) v i ,
dt

re
donde las componentes cartesianas de los vectores velocidad y aceleracion son: v i = v i (x (t) , y (t) , z (t)) y
ai = ai (x (t) , y (t) , z (t)), respectivamente.
rP
1.7.5. El operador
El operador vectorial () merece un poco de atencion en este nivel. Tal y como hemos visto:

El Gradiante
(x, y, z) (x, y, z) (x, y, z)
o

(x, y, z) = i+ j+ k,
x y z
= 1 (x, y, z) i1 + 2 (x, y, z) i2 + 3 (x, y, z) i3 = i xj ii .
ad

Pero es posible construir otras combinaciones realizando operaciones igual como con un vector com
un
y corriente
rr

El Rotor
As en el caso de E, que se denomina rotor de E, este viene definido por
Bo

 

E= i+ j+ k (Ex i + Ey j + Ez k)
x y z

     
Ez Ey Ex Ez Ey Ez
= i+ j+ k = ijk j Ek ii .
y z z x x y

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 39
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Divergencia
Tambien podemos hablar del producto escalar de nabla por un vector A. A esta operacion la llama-
remos divergencia de A:

Ai xj  Ax (x, y, z) Ay (x, y, z) Az (x, y, z)
A= i
i Ai xj + + ,
x x y z
pero por ahora consideremos nabla como un vector.
a una gran cantidad de relaciones vectoriales que involucran a , las cuales se podr
De este modo habr an
demostrar. Veamos algunos ejemplos.
1. (a b) = (a ) b + (b ) a + a ( b) + b ( a)

ar
El resultado es un gradiente, es decir un vector. El lado izquierdo sera
i
( (a b)) = i (a b) = i aj bj = i aj bj + i bj aj
  

in
mientras que el lado derecho
 
i ~ b + ijk bj ( a)
( (a b)) = aj j bi + bj j ai + ijk aj
 

lim
k
k
= aj j bi + j
  i ijk m n ijk m n
bj a + aj kmn b + bj kmn a
= aj j bi + bj j ai + ijk mnk aj m bn + ijk mnk bj m an
 

= aj j bi + bj j ai + m i j j i
n aj m bn + m i j j i
n bj m an
   
n m n m
= aj j bi + bj j ai + m
i j
n aj m bn m
j i
n aj m bn + m
i j
n bj m an m
j i
n bj m an
re
= aj j bi + bj j ai + an i bn am m bi + bn i an bm m ai
= aj j bi am m bi + bj j ai bm m ai + an i bn + bn i an
rP
| {z } | {z }
=0 =0
= an i bn + bn i an = i aj bj = i (a b) .


2. (a ) a = ( a) ( a) [ ( a)] a + (a ) ( a) [( a) ] a
Iniciamos la traducci
on a ndices por el lado izquierdo de la ecuacion, as
o

(a ) a = ijk j (am m ) ak = ijk (j am ) m ak + ijk am j m ak


ad

= ijk (j am ) m ak + am m ijk j ak ,


el lado derecho lo traduciremos termino por termino


( a) ( a) = ( m am ) ijk j ak

rr

[ ( a)] a = m mjk j ak ai = mjk m j ak ai = 0


   

(a ) ( a) = am m ijk j ak

Bo

[( a) ] a = mjk j ak m ai .
  

El segundo termino se anula por cuanto mjk es antisimetrico respecto a los ndices m, j mientras que
m j es simetrico. El tercer termino del desarrollo del lado derecho corresponde con el segundo del
desarrollo del lado izquierdo. Por lo tanto, llegamos a la siguiente igualdad
ijk (j am ) m ak = ( m am ) ijk j ak mjk j ak m ai
   

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 40
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Para verificar la igualdad tendremos que evaluar componente a componente. Esto es, para el lado
izquierdo:

1jk (j am ) m ak = 123 (2 am ) m a3 + 132 (3 am ) m a2


= (2 am ) m a3 (3 am ) m a2
= (2 a1 ) 1 a3 + (2 a2 ) 2 a3 + (2 a3 ) 3 a3 (3 a1 ) 1 a2 (3 a2 ) 2 a2 (3 a3 ) 3 a2 ,

mientras que para el primer termino del lado derecho

( m am ) 1jk j ak = ( m am ) 123 2 a3 + ( m am ) 132 3 a2


  

= 2 a3 1 a1 + 2 a3 2 a2 + 2 a3 3 a3 3 a2 1 a1 3 a2 2 a2 3 a2 3 a3 ,

ar
| {z } | {z }

y el segundo termino se escribe como

in
mjk j ak m ai = 1jk j ak 1 a1 2jk j ak 2 a1 3jk j ak 3 a1
     

= (2 a3 3 a2 ) 1 a1 (3 a1 1 a3 ) 2 a1 (1 a2 2 a1 ) 3 a1

lim
= 3 a2 1 a1 2 a3 1 a1 + 1 a3 2 a1 3 a1 2 a1 + 2 a1 3 a1 1 a2 3 a1 .
| {z } | {z } | {z } | {z }

Al sumar ambos terminos se eliminan los sumandos indicados con letras griegas, y queda como

( m am ) 1jk j ak mjk j ak m ai = 2 a3 2 a2 + 2 a3 3 a3
   

re



3 a2 2 a2 2 a2 3 a3 + 1 a3 2 a1 1 a2 3 a1 ,

rP
y al compararlo con el desarrollo del lado derecho e identificar termino a termino queda demostrada la
igualdad

1jk (j am ) m ak = (2 a1 ) 1 a3 + (2 a2 ) 2 a3 + (2 a3 ) 3 a3

(3 a1 ) 1 a2 (3 a2 ) 2 a2 (3 a3 ) 3 a2 .
o

De igual manera se procede con i = 2 e i = 3.


ad

1.7.6. Integraci
on
Despues de haber diferenciado campos escalares y vectoriales, el siguiente paso es integrarlos. Encontra-
rr

remos algunos objetos vectoriales a integrar y seran:

Integraci
on de un vector por un escalar Z
Bo

V (u) du

Integraci
on de un escalar a lo largo de un vector
Z
(x, y, z) dr
c

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 41
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Integraci
on de un vector a lo largo de otro vector
Z
V (x, y, z) dr
c

El primero de los casos es el tipo de integral que siempre hemos utilizado para encontrar la posici on a
partir de la velocidad. Los siguientes tres casos se conocen con el nombre de integrales de lnea por cuanto
es importante la ruta o trayectoria que sigamos al integrar. Esto aparece indicado por la letra C en la
integral y ser
a evidente m
as adelante. En general la integral de lnea dependera de la trayectoria.
R
Un vector por un escalar: V (u) du

ar
El primer caso de este tipo integrales es el trivial que ya sabemos calcular:
Z Z Z Z Z 
i
V (u) du = i Vx (u) du + j Vy (u) du + k Vz (u) du = V (u) du ii .

in
La integral de un vector (en un sistema de coordenadas cartesianas) por un escalar se convierte en la suma
de tres integrales, cada una a lo largo de las componentes cartesianas del vector.

lim
As integramos la aceleraci
on de un movimiento parabolico
Z Z
dv
= a = g k v = a dt = k g dt = k gt + v0 = k gt + iv0x + jv0y + kv0z
dt
Ahora bien, existen sutilezas en este caso que debemos tener en cuenta. Por ejemplo, considere la integral
Z 
d2 a
dt a 2 = dt
dt
 Z  
d
dt
a
da
dt


dt
re
da da
dt
 Z
= dt
d
dt

a
da
dt

=a
da
dt
+ c.
rP
Pero en general los casos quedan resueltos integrando componente a componente con la ayuda de la
notaci
on de ndices Z Z 
ijk

dt (a b) = dt aj bk ii .

Ejemplo: Tal vez, uno de los problemas que ilustra mejor esta situacion es el movimiento bajo fuerzas
o

centrales. La Ley de Gravitaci


on de Newton nos dice que para un sistema de dos masas, m y M se tiene:
ad

X M dv dv GM
F = m a mG 2 u
r = m = 2 ur .
rmM dt dt rmM

Es costumbre definir la velocidad aerolar, va , como el area barrida por el radio vector posicion, r (t) que
rr

describe la trayectoria de la partcula


 
dr d (r u
r ) dr d
ur d
ur dur
2va = r =ru r ur
= r u
r + r r r
=ru = r2 u
r .
dt dt dt dt dt dt
Bo

N
otese que:  
d d
ur d
ur d
ur
ur =0 u
r = c 2va = r2 u
r = const ,
dt dt dt dt

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 42
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

donde c es un vector constante, con lo cual


  
d dv GM GM d
ur
(v va ) = va = 2 u r va = ur ur
dt dt rmM 2 dt

  
d GM d
ur d
ur GM d
ur
(v va ) = ur r (
u ur u
r ) = ,
dt 2 dt dt 2 dt

integrando
GM
v va =
u
r + p
2

ar
donde p es un vector arbitrario que aparece como constante de integracion. Finalmente nos damos cuenta
que
 
GM GM

in
r (v va ) = r u
r u
r + p = r + rp cos()
2 2

= ijk ri vj vak va (r v) = va va = va2

lim
y entonces
2
2va
GM va2
va2 = r + rp cos() r = GM
GM
2p
2 2 + p cos() 1+ GM cos()
que constituye la ecuaci
on de una curva c

Un escalar a lo largo de un vector:


onica Cual curva?
R
C
(r) dr
re
rP
El segundo objeto que tropezaremos es la integracion de funciones de varias variables a lo largo de una
curva determinada. Esto es
Z Z Z Z Z
(x, y, z) dr = (x, y, z) (dxi + dyj + dzk) = i (x, y, z) dx + j (x, y, z) dy + k (x, y, z) dz .
C C C C C
o

La integral se nos ha convertido en tres integrales, las cuales son ahora componentes de un vector. Esto
es posible dado que la base (i, j, k) es una base constante. Ahora bien, cada una de estas integrales son
ad

interdependientes, dado que hay que seguir la misma curva C. Consideremos el caso bidimensional que es
mas simple y contiene toda la riqueza conceptual del tridimensional.

Ejemplo:
rr

Z (1,2) Z (1,2) Z (1,2)


(x, y) = 3x2 + 2y 3x2 + 2y dr = i 3x2 + 2y dx + j 3x2 + 2y dy
  
(0,0) (0,0) (0,0)
Bo

Se requiere especificar la curva C a lo largo de la cual integraremos desde el punto P1 (0, 0) al punto
P2 (1, 2).

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 43
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Si recorremos la ruta C1 : (0, 0) (1, 0) (1, 2) podemos hacerlo de la manera mas sencilla:
Z (1,0) Z (1,0) Z 1
2 2
3x2 dx = i
  
(0, 0) (1, 0) y = cte = 0 3x + 2y dr = i 3x + 2y dx = i
(0,0) (0,0) 0

Z (1,0) Z (1,2) Z 2
3x2 + 2y dr = j 3x2 + 2y dy = j
 
(1, 0) (1, 2) x = cte = 1 (3 + 2y) dy = 10j
(0,0) (0,0) 0

con lo cual Z (1,2)


3x2 + 2y dr = i + 10j

C1 (0, 0) (1, 0) (1, 2)

ar
(0,0)
C1A C1B

Si hubieramos seleccionado la recta que une a estos dos puntos como la curva C2 entonces

C2 : y = 2x dy = 2dx ,

in
entonces
Z (1,2) Z (1,2) Z (1,2)

lim
3x2 + 2y dr = i 3x2 + 2y dx + j 3x2 + 2y dy
  
(0,0) (0,0) (0,0)
Z 1 Z 1
3x2 + 2 (2x) dx + j 3x2 + 2 (2x) 2dx = 3i + 6j
 
=i
0 0

En general la curva C se puede parametrizar y las integrales en varias variables se convertiran en integrales
a lo largo del par
ametro que caracteriza la curva
re
C : {x = x ( ) , y = y ( ) , z = z ( )}
rP
Por lo tanto:
Z Z  
x ( ) y ( ) z ( )
(x, y, z) dr = (x ( ) , y ( ) , z ( )) d i + d j + d k
C C
Z Z
x ( ) y ( )
=i (x ( ) , y ( ) , z ( )) d + j (x ( ) , y ( ) , z ( )) d
C C
o

Z
z ( )
+k (x ( ) , y ( ) , z ( )) d .

ad

Las parametrizaciones para las curvas anteriores son muy simples



x= x=2 x=
C1A = ; C1B = ; C2 =
rr

y=0 y= y = 2

R
Un vector a lo largo de otro vector: F (r) dr
Bo

C
R
Quiza la integral de lnea mas conocida sea una del tipo C F (r) dr por cuanto nos la hemos tropezado
en el c
alculo del trabajo que realiza una fuerza. Todo lo que hemos considerado al parametrizar la curva en
el caso anterior, sigue siendo v alido.
Z Z Z Z Z
F i xj dxi

F (r) dr = Fx (x, y, z) dx + Fy (x, y, z) dy + Fz (x, y, z) dz =
C C C C C

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 44
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

Ejemplo: Si consideramos

F (r) = 3x2 + 2xy 3 i + 6xy j ,




entonces
Z (1, 43 2) Z (1, 34 2)
3x2 + 2xy 3 i + 6xy j (dx i + dy j)
 
F (r) dr =
(0,0) (0,0)
Z (1, 34 2) Z (1, 43 2)
2 3

= 3x + 2xy dx + 6xy dy ,
(0,0) (0,0)

ar
y si la curva que une esos puntos viene parametrizada por
x( )

x = 2 2 = 4

in
y = 3 +
y( )
= 3 2 + 1

entonces la primera de las integrales resulta

lim
Z (1, 34 2) Z
2
2

2 3
2 3 
3 2 2 + 2 2 2 3 +
 
3x + 2xy dx = (4 ) d
(0,0) 0

2
9305
Z 2
16 12 + 48 10 + 48 8 + 16 6 + 48 5 d = 1 +

= 2.
0 24024

Y la segunda
Z (1, 43 2)
6xy dy =
Z
2
2

6 2 2
re 
3 +

3 2 + 1 d =
 65
,
rP
(0,0) 0 32
con lo cual
Z (1, 43 2) Z (1, 34 2) Z (1, 43 2)
97 9305
3x2 + 2xy 3

F (r) dr = dx + 6xy dy = + 2.
(0,0) (0,0) (0,0) 32 24024
o

1.7.7. Ejercicios
ad

1. Demuestre que
d
[A (B C)] = dA dB dC
 
a) dt dt (B C) + A dt C + A B dt
h  i  
d d2 A d3 A
b) dt A dA dt dt2 = A dAdt dt3
rr

c) ( A) = A A
d ) () = 0
Bo

e) [A ( A)] = 0, si A = (y, z)i.


2. Para los vectores dados a continuaci
on, encuentre dr/ds
a) r = ti + 3t2 j (t 1)k, y t = ln(1 + s2 )
b) r = sen(t)i + cos(t)j + tan(t)k, y t = 2 + s2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 45
E INTEGRACION
1.7. UN COMIENZO A LA DERIVACION DE VECTORES

3. Una partcula describe un movimiento dado por el vector posicion r. Encuentre la componente de su
velocidad en la direcci
on del vector indicado
a) r = t2 i + 4 cos(2t)j + 3sen(2t)k, 2i + j + 2k.
2
b) r = 3 cos(t)i + 3sen(t)j + (t 2)k, i + 2j k
4. Si u, v y w son funciones que dependen del parametro t, demuestre que
d
[u (v w)] = u v dw dv
  du
a) dt dt + u dt w + dt (v w)
d
[u (v w)] = u v dw dv
  du
b) dt dt + u dt w + dt (v w)

5. Si u = 2ti t2 j + k, v = 2i + 3tj + tk y w = ti + 2tj tk. Utilice el resultado del ejercicio anterior (a)

ar
d
para encontrar dt [u (v w)].
6. Si u = ti tj + t2 k, v = ti + 2tj t2 k y w = 2ti 2tj + tk. Utilice el resultado del ejercicio anterior
d
(b) para encontrar dt [u (v w)].

in
7. Encuentre el gradiente de los siguientes campos
a) (x, y, z) = x2 + 3xyz yz 2

lim
1
b) (x, y, z) = x2 + 2y 2 + 4z 2
8. Encuentre la divergencia de los siguientes campos
a) V(x, y, z) = x2 yi + y 2 z 2 j + xz 3 k
b) V(x, y, z) = (1 x2 )i + sen(yz)j + exyz k
9. Encuentre el rotor de los siguientes campos
a) V(x, y, z) = xyz 2 i + x2 yzj + xy 2 k
re
rP
b) V(x, y, z) = senh(xy)i + cosh(yz)j + xyzk
10. Eval
ue las siguientes integrales

tsen(t)i + 2t2 j 7tk dt
R
a)
cosh2 (t)i + 2sen2 (2t)j k dt
R 
b)
o

ua sobre un oscilador descrito por: F = kxi kyj


11. Un campo de fuerza act
ad

Compare el trabajo hecho al moverse en contra de este campo al ir desde el punto (1, 1) al punto (4, 4)
siguiendo los siguientes caminos:
a) (1, 1) (4, 1) (4, 4) b) (1, 1) (1, 4) (4, 4) c) (1, 1) (4, 4) siguiendo el camino x = y
rr

y x
12. Dado el campo de fuerza: F = x2 +y 2i + x2 +y 2 j
Calcule el trabajo hecho en contra de este campo de fuerza al moverse al rededor de un circulo de radio
uno y en el plano x y
Bo

a) desde 0 a en sentido contrario a la agujas del reloj.


b) desde 0 a en sentido de las agujas del reloj.
13. Evaluar la siguiente integral I
r dr .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 46

1.8. VECTORES Y NUMEROS COMPLEJOS

1.8. Vectores y n
umeros complejos
Desde los primeros cursos de matem atica nos hemos tropezado con las llamadas races imaginarias o
complejas de polinomios. De este modo la solucion a un polinomio c
ubico

x = 2i
x3 3x2 + 4x 12 = 0 x = 2i (x + 2i) (x 2i) (x 3) = 0
x=3

o cuadr
atico  
x = 2i
x2 + 4 = 0 (x + 2i) (x 2i)
x = 2i

ar

umero i2 = 1 i = 1. Como vimos arriba al multiplicar el n
nos lleva a definir un n umero imaginario
i por cualquier n umero real obtendremos el n umero imaginario puro ib, con b R. La nomenclatura de
n
umeros imaginarios surgi o de la idea de que estas cantidades no representaban mediciones fsicas. Esa idea

in
ha sido abandonada pero el nombre qued o.

1.8.1. Los n
umeros complejos y su
algebra

lim
Un n
umero complejo, z, es la generalizacion de los n
umeros imaginarios (puros), ib. Esto es

a parte real
z = a + ib con a, b R
b parte imaginaria

Obviamente los numeros reales ser


an a + i0 n
umeros complejos con su parte imaginaria nula. Los n umeros
imaginarios puros ser
que
an n
re
umeros complejos con su parte real nula, esto es, 0 + ib. Por ello, en general diremos

z = a + ib a = Re (z) b = Im (z) ,
rP
es decir, a corresponde a la parte real de z y b a su parte imaginaria.
Cada n umero complejo, z tendra asociado un n umero complejo conjugado, z tal que

z = a + ib
z = a ib

o


(z ) = z z z = a2 + b2 ,
ad

claramente
2 2
z z 0 |z| = |z | = z z = a2 + b2 .
Es importante senalar que, en general, no existe relacion de orden entre los n
umeros complejos. Vale
decir, que no sabremos si un n
umero complejo es mayor que otro. No esta definida esta operacion.
rr

z1 z2 z1 z2 .
Bo

Las relaciones de orden s


olo se podran establecer entre modulos de n
umeros complejos y no n
umeros complejos
en general.
Rapidamente recordamos el algebra de los numeros complejos:

Dos n
umeros complejos ser
an iguales si sus partes reales e imaginarios lo son

z1 = z2 (a1 + ib1 ) = (a2 + ib2 ) a1 = a2 b1 = b2 .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 47

1.8. VECTORES Y NUMEROS COMPLEJOS

Se suman dos n
umeros complejos sumando sus partes reales y sus partes imaginarias.

z3 = z1 + z2 (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) = a3 + ib3 ,


| {z } | {z }
a3 b3

claramente z + z = 2 Re z, tambien z z = 2 Im z. Igualmente es inmediato comprobar que



(z1 + z2 ) = z1 + z2 .

Se multiplican n
umeros complejos por escalares multiplicando el escalar por sus partes reales e imagi-
narias
z3 = z1 (a1 + ib1 ) = (a1 ) + i (b1 ) .

ar
Se multiplican n
umeros complejos entre si, multiplicando los dos binomios y teniendo cuidado que
i2 = 1.
z3 = z1 z2 (a1 + ib1 ) (a2 + ib2 ) = (a1 a2 b1 b2 ) + i (a1 b2 + b1 a2 ) ,

in

tambien es inmediato comprobar que (z1 z2 ) = z1 z2 .
Se dividen n
umeros complejos siguiendo la estrategia de racionalizacion de fracciones irracionales. Esto

lim
es
z1 (a1 + ib1 ) (a1 + ib1 ) (a2 ib2 ) a1 a2 + b1 b2 b1 a 2 a 1 b2
z3 = = = 2 2 +i ,
z2 (a2 + ib2 ) (a2 + ib2 ) (a2 ib2 ) (a2 + b2 ) (a22 + b22 )
es claro que el divisor ser
a cualquier n
umero complejo excepto el cero complejo: 0 + i0.

1.8.2. Vectores y el plano complejo


Mirando con cuidado el
algebra de n
ser representado por una dupla de n
re
umeros complejos nos damos cuenta que un n
umeros, es decir,
umero complejo puede
rP
z = (a + ib) z = (a, b)

Las propiedades entre n umeros complejos de igualdad, suma y multiplicacion por un escalar arriba ex-
puestas se cumplen de forma inmediata con esta nueva representacion. Hay que definir las operaciones de
multiplicaci
on y divisi on entre n umeros complejos de forma que
o

 
(a1 , b1 ) a1 a2 + b1 b2 b1 a2 a1 b2
(a1 , b1 ) (a2 , b2 ) = (a1 a2 b1 b2 , a1 b2 + b1 a2 ) = ,
ad

(a2 , b2 ) (a22 + b22 ) (a22 + b22 )


Esta asociaci
on de un n
umero complejo con una pareja de n
umeros inmediatamente nos lleva a imaginar
un punto en un plano (complejo) en el cual la primera componente (horizontal) representa la parte real
y la segunda componente (vertical) representa la parte imaginaria. De esta forma asociamos a un n umero
rr

complejo a un vector que une a ese punto (a, b) con el origen del plano complejo. Esta representaci on de
umeros complejos como vectores en el plano (complejo) se conoce con el nombre de Diagrama de Argand3 a
n
pesar que no fue Jean Argand, sino Caspar Wessel4 el primero en proponerlo. Por cierto, esta interpretaci
on
Bo

3 En honor a JEAN ROBERT ARGAND (Ginebra, Suiza, 18 Julio 1768; Par s, Francia 13 agosto 1822). Contador pero
matem atico aficionado, propuso esta interpretaci
on de n umeros complejos como vectors en un plano complejo en un libro
autoeditado con sus reflexiones que se perdio y fue rescatado 7 anos despues, fecha a partir de la cual Argand comenz o a
publicar en Matematicas.
4 CASPAR WESSEL (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen, Dinamarca) Matem atico noruego que
se dedic
o principalemente al levantamiento topogr afico de Noruega. Su trabajo sobre la interpretaci
on de numeros complejos
permaneci o desconocido por casi 100 a
nos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 48

1.8. VECTORES Y NUMEROS COMPLEJOS

fue tres veces redescubierta, primero por Caspar Wessel en 1799, luego por Jean Argand en 1806 y finalmente
por Gauss5 en 1831.
De esta manera, como un recordatorio al plano real
p
2 2
r = zz = |z| = x + y

z = x + iy z = r (cos() + i sen()) con
tan() = y donde

x
La interpretaci
on vectorial de n
umeros complejos permite que la suma de n
umeros complejos sea representada
por la regla del paralelogramo. Mientras que los productos escalar y vectorial nos llevan a

z1 z2 = Re (z1 z2 ) = Re (z1 z2 ) z1 z2 = Im (z1 z2 ) = Im (z1 z2 )

ar

Con esta interpretaci


on tendremos
x = Re z
componente real del vector z o parte real de z

in
y =Im z
componente imaginaria del vector z o parte imaginaria de z
r = zz = |z|
modulo, magnitud o valor absoluto de z

angulo polar o de fase del n
umero complejo z

lim
1.8.3. F
ormulas de Euler y De Moivre
En cursos anteriores, nos hemos tropezado con la expansion en Taylor6 de funciones, esta serie permite
expresar cualquier funcion infinitamente diferenciable alrededor de un punto x0 como una serie infinita de
potencias del argumento de la funci on, esto es:

f (x) = 1 +

df (x)
dx x=x0
(x x0 ) +
1 d2 f (x)
2 dx2 x=x0

re 2
(x x0 ) +
1 d3 f (x)
3! dx3 x=x0

3
(x x0 ) +
rP
1 dn f (x)

n
f (x) = Cn (x x0 ) , con Cn = y donde n = 0, 1, 2, 3, . . .
n! d xn x=x0

Si consideramos x0 = 0, podremos ver a continuacion algunos desarrollos en series de funciones elemen-


tales
o

1 1 1 1 5 1 6 1 7
ex = 1 + x + x2 + x3 + x4 + x + x + x +
2 6 24 120 720 5040
ad

1 1 1 6
cos(x) = 1 x2 + x4 x +
2 24 720
rr

1 1 5 1 7
sen(x) = x x3 + x x +
6 120 5040
Bo

5 JOHANN CARL FRIEDRICH GAUSS (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, G ottingen, Alemania). Uno
de los matem
aticos mas geniales y precoces de la Historia. Desde los 7 anos comenz
o a mostrar sus condiciones de genialidad.
Sus contribuciones en Astronoma y Matem aticas son m
ultiples y diversas.
6 BROOK TAYLOR (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) F sico y Matem atico
ingl
es contemporaneo de Newton y Leibniz y junto con ellos particip o profundamente en el desarrollo del Calculo diferencial e
integral. Ademas de sus aportes al estudio del magnetismo, capilaridad y termometra, desarroll
o el
area de diferencias finitas
que hasta hoy utilizamos para c alculos en computaci on. Invent
o la integraci
on por partes y descubrio la serie que lleva su
nombre.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 49

1.8. VECTORES Y NUMEROS COMPLEJOS

acil convencerse que para la serie de ex se tiene


Es f
   
1 1 1 1 5 1 6 1
ei = 1 + i 2 + i 3 + 4 + i + i 7 +
2 6 24 120 720 5040

y que puede rearreglarse como


   
1 1 1 6 1 1 5 1 7
ei = 1 2 + 4 + + i 3 + +
2 24 720 6 120 5040
| {z } | {z }
cos() sen()

ar
ei = cos() + i sen() ,

esta relaci on de Euler7 . Con lo cual ahora tenemos tres formas de representar un
on se conoce como la relaci
n
umero complejo

in
z = x + iy z = r (cos() + i sen()) z = rei .
La expresi
on z = x + iy se conoce como forma cartesiana de representacion de un n umero complejo,
a la forma trigonometrica o polar y la expresion z = ei sera la for-

lim
la forma z = r (cos() + i sen()) ser
ma de Euler. Es importante notar una sutileza implcita en esta notacion. La forma cartesiana representa
unvocamente a un n
umero complejo, mientras que la forma polar (y la de Euler), es ambigua

z = r (cos() + i sen()) = r (cos( + 2n) + i sen( + 2n)) , (1.1)

mas adelante cuando tratemos las funciones de n


La f
umero complejos.re
es decir, existen varios valores del argumento que definen el mismo n
umero complejo. Esto se considerar

ormula de Euler, para cuando < < resulta en los siguientes simpaticos resultados
a
rP

i = ei 2 , 1 = ei , i = ei 2 , 1 = ei2k con k = 0, 1, 2, 3 . . .

Las sumas de n umeros complejos son mas facilmente planteables en su forma cartesiana. Mientras las
multiplicaci
on y divisi on ser
an directas en la forma de Euler

z1 = r1 ei1
o

z1 z2 = ei1 ei2 = ei(1 +2 ) = r1 r2 (cos (1 + 2 ) + i sen (1 + 2 )) .


i2
z2 = r2 e
ad

M
as a
un, si
z = x + iy ez = e(x+iy) = ex eiy = ex (cos(y) + i sen(y)) ,
a partir de la relaci ormula de Euler se puede demostrar la De Moivre8
on o f
rr

n n
ei = ein = (cos() + i sen()) = cos (n) + i sen (n) , con n entero.
7 LEONHARD EULER (15 abril 1707, Basilea, Suiza; 18 septiembre 1783, San Petersburgo, Rusia). Uno de los matem aticos
Bo

mas prolficos de todos los tiempos. Desarrollo inmensamente campos como la geometra analtica y trigonometra, siendo el
primero que consider o el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del c
alculo diferencial e
integral as como tambien, astronoma, elasticidad y mecanica de medios contnuos.
8 ABRAHAM DE MOIVRE (26 mayo 1667 in Vitry-le-Fran cois, Francia; 27 noviembre 1754, Londres Inglaterra) Matem atico
frances que tuvo que emigrar a Inglaterra por razones religiosas. Contemporaneo de Newton, Liebniz y Halley, fue pionero con
sus contribuciones en geometra analtica y teora de probabilides.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 50

1.8. VECTORES Y NUMEROS COMPLEJOS

1.8.4. Algunas aplicaciones inmediatas


Presentaremos algunas aplicaciones inmeditas la formula de De Moivre en diferentes ambitos.

Identidades trigonom
etricas
La primera de las aplicaciones de la formula de De Moivre es para construir identidades trigonometricas
en las cuales se expresa el coseno, o el seno, de factores de un angulo. Veamos las siguientes (nada triviales)
identidades trigonometricas

cos(3) = 4 cos3 () 3 cos() o sen(3) = 3 sen() 4sen3 () ,

ar
para demostrar estas (y otras) identidades utilizamos la formula de De Moivre, es decir
3
cos(3) + i sen( 3) = (cos() + i sen())
= cos3 () 3 cos() sen2 () + i 3 cos2 () sen() sen3 () ,


in
igualando ahora parte real e imaginaria tendremos

cos(3) = cos3 () 3 cos() sen2 ()

lim
= cos3 () 3 cos() 1 cos2 () = 4 cos3 () 3 cos()


sen(3) = 3 cos2 () sen() sen3 ()


= 3 1 sen2 () sen() sen3 () = 3 sen() 4sen3 () .


re
El metodo puede extenderse a expresiones de senos y cosenos de n.
Igualmente podemos desarrollar un metodo para encontrar expresiones de potencias de funciones trigo-
rP
n
nometricas en termino de funciones de factores de angulo del tipo (cos()) = F (cos(n), sen(n)). Para
empezar, supongamos que tenemos un n umero complejo de modulo 1, de tal forma que

n 1
z + z n = 2 cos(n)


z = ei = cos() + i sen()
z n 1 = 2i sen(n)
o



zn
ad

Estas identidades surgen de manera inmediata de


1 n n
zn + = (cos() + i sen()) + (cos() + i sen()) = (cos(n) + i sen(n)) + (cos (n) + i sen (n))
zn
rr

= cos(n) + i sen(n) + cos(n) i sen(n) = 2 cos(n) ,

igualmente puede demostrarse la segunda de las afirmaciones anteriores.


Ahora bien, supongamos adem as que n = 1, con lo cual se cumple que
Bo

1 1
z+ = ei + ei = 2 cos() y z = ei ei = 2i sen() ,
z z
que tambien lo sabamos desde la m
as temprana edad de nuestros cursos de bachillerato.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 51

1.8. VECTORES Y NUMEROS COMPLEJOS

Ahora bien, lo que quiz


a no sabamos en ese entonces (y quiza ahora tampoco) es que a partir de aqu
podemos construir, por ejemplo:
   5      
1 1 5 1 1 1 5 1 3 5 10
cos() = z+ cos () = 5 z + = 5 z + 5 + 5z + 3 + 10z + ,
2 z 2 z 2 z z z
es decir
1
cos5 () =
[2 cos(5) + 10 cos(3) + 20 cos()] ,
25
de la misma manera se puede proceder con otras potencias y con potencias de la funcion seno.

Races de polinomios

ar
La f ormula de De Moivre nos puede ayudar para encontrar races de polinomios. Supongamos, para
empezar, que queremos encontrar las n races de la ecuacion z n = 1. Para ello procedemos con el siguiente
artificio

in
z n = 1 = cos (2k) + i sen (2k) = ei(2k) , donde k = 0, 1, 2, ....
on z n = 1 seran
con lo cual las n races de la ecuaci

lim
z n = 1 z = ei( )
2k
n


z }| {
2i( n
1
) 2i( n
2
) 2i( n
3
); 2i( n2
n ) 2i( n1
n )
z 0 = 1; z1 = e ; z2 = e ; z3 = e zn2 = e ; zn1 = e

es decir, n races corresponder


nuevas races.
on z 3 = 1 ser
Las races de la ecuaci
2k re
an a los n valores de k = 0, 1, 2, n 2, n 1. Mayores valore de k no proveen

an entonces: z = ei( 3 ) z0 = 1, z1 = ei( 3 ) , z2 = ei( 3 ) .


Estas propiedades pueden extenderse a races de polinomios con mas terminos.
2 4
rP
Ejemplo: Supongamos la siguiente ecuacion polinomica con sus races:
4
z + 2 = 0 z 4 = 2
5 4 4

z z + 2z 2 = 0 z + 2 (z 1) = 0
o

z1=0 z =1

Entonces, del resultado anterior


ad

  h  i1/4 23/4
= (2)1/4 ei( 4 ) = (1 + i) ei( 4 )
2k 2k
z 4 = 2(1) = 2 ei(2k) z = 2 ei(2k)
2
1/2

donde hemos utilizado el hecho de que: (1)1/4 = i1/2 = ei 2 = ei 4 = 22 (1 + i) . Por lo tanto:
rr

1 1 i
(1 + i) ei( 2 ) =

z0 = (1 + i) , z1 = (1 + i)
21/4 21/4 21/4
Bo

1 1 1 ) = i (1 + i) .
(1 + i) ei(
3
z2 = (1 + i) ei() = (1 + i) , z3 = 2
21/4 21/4 21/4 21/4
on z 5 z 4 + 2z 2 = 0, tendra las siguientes cinco races:
La ecuaci
1 1 1 1
z0 = (1 + i) , z1 = 1/4 (1 i) , z2 = 1/4 (1 + i) , z3 = 1/4 (1 i) , z4 = 1 .
21/4 2 2 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 52

1.8. VECTORES Y NUMEROS COMPLEJOS

Una afirmaci on que nos han dicho, y que quiza no sepamos de donde viene, es que si un polinomio
con coeficientes reales tiene races complejas, ellas ser
an complejas conjugadas unas de otras. Vale decir, si
z 5 z 4 + 2z 2 = 0 tiene como raz (1 + i), tambien tendra como raz (1 i), como hemos visto.
Esta afirmaci on se prueba de forma general si suponemos que tenemos la siguiente ecuacion
ai z i = 0 , con i = 0, 1, 2, n 1, n a0 + a1 z + a2 z 2 + an1 z n1 + an z n = 0 ,
donde los coeficientes a0 , a1 , a2 , , an1 , an los suponemos reales, esto es: ai = ai para todos los valores
del ndice i.
Al tomar el complejo conjugado nos queda:
2 n1 n
a0 + a1 z + a2 z 2 + an1 z n1 + an z n = 0 a0 + a1 z + a2 (z ) + an1 (z ) + an (z ) = 0 ,

ar
como los coeficientes son reales tenemos que
2 n1 n
a0 + a1 z + a2 z 2 + an1 z n1 + an z n = 0 a0 + a1 z + a2 (z ) + an1 (z ) + an (z ) = 0 ,
on tambien lo sera z ya que la ecuacion es la misma por tener los mismos
esto nos dice que si z es soluci

in
coeficientes (reales).

Ejemplo: Ahora consideremos el siguiente polinomio complejo

lim
P (z) = z 6 z 5 + 4z 4 6z 3 + 2z 2 8z + 8 = 0 .
Si por alg un metodo comprobamos que (z 3 2) es uno de sus factores, entonces podremos encontrar las
races del polinomio P (z). Veamos, claramente si (z 3 2) es un factor podemos expresar
P (z) = z 6 z 5 + 4z 4 6z 3 + 2z 2 8z + 8 = (z 3 2)(z 3 z 2 + 4z 4) = (z 3 2)(z 1)(z 2 + 4) ,

z3 = 2 ,
re
con lo cual, como z es complejo, hay que tener cuidado con las races encubiertas. Entonces, la races son:
z = 1, z 2 = 4
rP
Para z 2 = 4 z = 2i .
1/3
= 21/3 ei( 3 )
  2k
Para z 3 = 2 z 3 = 2 ei(2k) z = 2 ei(2k)
Por lo tanto:
1/3 i 21/3 h i
) = 2
h
z0 = 21/3 , z1 = 21/3 ei( 3i , z2 = 21/3 ei( 3 ) =
2 4
1 1 + 3i .
o

3
2 2
6 5 4 3 2
on z z + 4z 6z + 2z 8z + 8 = 0, tendra las siguientes seis races:
ad

La ecuaci

3 1 h i
z = 2, z = 3
1 3 i , z = 1 , z = 2i .
4
Logaritmos y potencias de n
umeros complejos
rr

Definamos la siguiente funci


on
z = ei Ln(z) = i ,
Bo

donde Ln representa el logaritmo natural del n umero complejo z. Notese que hemos utilizado Ln en lugar
de tradicional ln y la raz
on es la ambig
uedad implcita en la notacion de Euler, vale decir
z = rei Ln(z) = ln(r) + i ( + 2n) = ln(r) + i ,
en otras palabras, Ln(z) no es funci
on por el hecho de ser multivaluada. Se supera esta dificultad cuando se
restringe el argumento < y esta se conoce como el valor principal de la funcion

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 53

1.8. VECTORES Y NUMEROS COMPLEJOS

Ejemplos: h i  
Ln (3i) = Ln 3ei( 2 +2n) = ln(3) + i + 2n

con n = 0, 1, 2,
2
decimos que el valor principal del Ln (3i) sera ln(3) i 2 .
Con la misma intuicion se procede con las potencias de n umeros complejos. Si queremos evaluar z = i5i
tendremos que proceder como sigue
h i  
z = i5i Ln (z) = Ln i5i = 5i Ln (i) = 5i Ln ei( 2 +2n) = 5

+ 2n ,
2
con lo cual z = i5i es un n
umero real! h 3 i
Para finalizar consideremos otro par de casos de potencias y logaritmos: ii y Ln 3+i .

ar
h ii 2
ii = ei( 2 +2n) = ei ( 2 +2n) = e( 2 +2n) ,

in
h     
3 i i arctan 13
h    i
= 3 ln(2) + i arctan 13 + 2n = ln(8) + i

Ln 3+i = 3 Ln 2e 2 + 6n .

lim
1.8.5. Ejercicios
1. Si los n
umeros complejos z1 = x1 + iy1 y z2 = x2 + iy2 se pueden representar como vectores en el plano
z1 = x1 i + y1 j y z2 = x2 i + y2 j, muestre que

z1 z2 = z1 z2 + ik (z1 z2 )

2. Demuestre que
a) cos(3) = cos3 () 3 cos()sen2 ()
re
rP
b) sen(3) = 3 cos2 ()sen() sen3 ()

3. Demuestre que
1
a) cos4 () = 8 (3 + 4 cos(2) + cos(4))
1

b) cos () + sen3 () =
3
cos(3) + 3 cos() sen3 () + 3sen()
o

4. Demuestre que
ad

 iy
ix 1 1
= e(2y cot (x))
ix + 1
donde x y y son n
umeros reales.
rr

5. Encuentre las races de



a) 2i b) 1 3i c) (1)1/3 d) 81/6 e) (8 8 3i)1/4
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 54
1.9. ALGUNOS EJEMPLOS RESUELTOS

1.9. Algunos ejemplos resueltos


1. Hemos definido como la posici
on, R, del centro de masa para un sistema de N partculas como

N
i=1 mi ri
R=
Nj=1 mj

donde ri corresponde con la posici


on de la iesima partcula.
Determine la posici on del centro de masa para un sistema de tres masas, mi = 1,2,3, colocadas en los
vertices de un tri
angulo equil
atero de lado l = 2.
Solucion: Al colocar el origen de coordenadas en uno de los vertices y uno de los ejes de coordenadas

ar
sobre uno de los lados, entonces

3i=1 mi ri m1 r1 + m1 r1 1 2i + 3 i + 3j 5 3
R= 3 = = = i+ j
j=1 mj MT 6 6 2

in
2. Dada una base ortonormal {i, j, k} y los siguientes vectores

lim
a = 3i + 2j + k , b = 3i 2j + k , c=ik

a) Comprobar si {a, b, c} forman una base.


Solucion: Para que los vectores formen una base tienen que ser linealmente independientes. Esto
es a + b + c = 0 = = = 0, con lo cual

re
(3i + 2j + k) + (3i 2j + k) + (i k) = 0

3 + 3 + = 0

2 2 = 0
+ =0
rP
y al resolver el sistema se obtiene: = = = 0 con lo cual se demuestra que son linealmente
independientes.
Otra manera de resolverlo es mostrar que: c (a b) 6= 0 y efectivamente

1 0 1

c (a b) = 3 2 1 = 4 6= 0 .
o

3 2 1
ad

b) Si {a, b, c} forman una base, exprese d = i + 2j , e = 3i 2j y f = a b en termino de esa base


{a, b, c}. De lo contrario, construya una base como {a, b, a b} y exprese los vectores {d, e, f }
en termino de esa nueva base.
Soluci on: Como forman base expresamos los vectores en esos terminos. Esto es
rr


3 + 3 + = 1
i + 2j = (3i + 2j + k) + (3i 2j + k) + (i k) 2 2 = 2
Bo

+ =0

resolviendo tendremos que d = 85 a 38 b + 41 c. Seguidamente



3 + 3 + = 3
3i 2j = (3i + 2j + k) + (3i 2j + k) + (i k) 2 2 = 2
+ =0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 55
1.9. ALGUNOS EJEMPLOS RESUELTOS

resolviendo tendremos que e = 18 a + 78 b + 43 c


Ahora bien

i j k

f = a b (3i + 2j + k) (3i 2j + k) 3 2 1 = 4i 12k

3 2 1

con lo cual

3 + 3 + = 4
4i 12k = (3i + 2j + k) + (3i 2j + k) + (i k) 2 2 = 0
+ = 12

ar
y finalmente f = a b = a b + 10c .
on de ndices demostrar que para cualquier tro de vectores {a, b, c} se cumple que
3. Utilizando la notaci
a (b c) + b (c a) + c (a b) = 0.

in
Soluci
on: En notaci
on de ndices

a (b c) + b (c a) + c (a b) = lmi am ijk bj ck + lmi bm ijk cj ak + lmi cm ijk aj bk

lim
con lo cual, arreglando

lmi ijk am bj ck + lmi ijk bm cj ak + lmi ijk cm aj bk =

jl km jm kl am bj ck + jl km jm kl bm cj ak + jl km jm kl cm aj bk
  

anula re
y ahora desarrollando los productos de las s, e indentificando termino a termino, notamos que se

ak bl ck ak bk cl + bk cl ak bk ck al + ck al bk ck ak bl = 0 .
rP
| {z } | {z } | {z } | {z } | {z } | {z }
I II II III III I

4. Una partcula se mueve a lo largo de una curva descrita por

x(t) = 3t2 y(t) = 4t3 t z(t) = t


o

a) Encuentre las expresiones para los vectores: posicion, velocidad y aceleracion de esa partcula.
Soluci
on:
ad

r(t) = 3t2 i + (4t3 t)j + tk , v = 6ti + (12t2 1)j + k , a = 6i + 24tj .

b) Encuentre las expresiones, m as generales, de los vectores tangentes y perpendiculares a todo punto
de la trayectoria de la partcula.
rr

Solucion: Vector tangente a todo punto de la trayectoria es el vector velocidad

v = 6ti + (12t2 1)j + k ,


Bo

El perpendicular a todo punto, sera un vector b = bx i + by j + bz k, tal que

(6ti + (12t2 1)j + k) (bx i + by j + bz k) = 6tbx + (12t2 1)by + bz = 0 ,

con lo cual
b = bx i + by j (6tbx + (12t2 1)by )k .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 56
1.9. ALGUNOS EJEMPLOS RESUELTOS

5. El campo de fuerzas del oscilador anarmonico anisotropo bidimensional se escribe como

F = k1 x2 i + k2 yj . (1.2)
R (x2 ,y2 )
Encuentre el trabajo realizado, (x1 ,y1 )
dr F a lo largo de las siguientes trayectorias

a) (1, 1) (4, 1) (4, 4)


Soluci on:
Z (4,1) Z (4,4)
15k2
(idx) (k1 x2 i + k2 j) + (jdy) (k1 16i + k2 yj) = 21k1 +
(1,1) (4,1) 2

ar
b) (1, 1) (1, 4) (4, 4)
Soluci on:
Z (1,4) Z (4,4)
15k2

in
(jdy) (k1 i + k2 yj) + (idx) (k1 x2 i + k2 4j) = 21k1 +
(1,1) (1,4) 2

c) (1, 1) (4, 4) para x = y

lim
Soluci on:
Z (4,4) Z (4,4)
15k2
(idx + jdx) (k1 x2 i + k2 xj) = (k1 x2 + k2 x)dx = 21k1 +
(1,1) (1,1) 2

6. Dados los siguientes puntos en el espacio (1, 0, 3); (2, 1, 0); (0, 1, 1); (1, 0, 1).

Soluci
re
a) Considere los tres primeros puntos. Estos tres puntos son coplanares? por que? Explique.
on: Tres puntos en el espacio definen un plano, por lo tanto siempre seran coplanares.
rP
b) Encuentre el area del tri
angulo que tiene por vertices esos tres puntos.
Soluci on: Para ello seleccionamos uno de los puntos como un vertice privilegiado (digamos
(2, 1, 0)) respecto al cual construiremos dos vectores que representan dos de los lados del tri
angu-
lo. Esto es
a = (1, 0, 3) (2, 1, 0) a = i + j + 3k ,
o

y
b = (0, 1, 1) (2, 1, 0) b = 2i + k ,
ad

con lo cual, el
area del vertice sera la mitad del area del paralelogramo que tiene por lados estos
dos vectores. Es decir


i j k
1 = i 5j + 2k A = 1 |i 5j + 2k| = 30 .
rr


A = |a b| a b = 1 1 3
2 2
2 2
0 1
Bo

c) Encuentre la ecuaci
on del plano que los contiene
Soluci
on: La ecuacion del plano vendra dada por

(r r1 ) ((r2 r1 ) (r3 r1 )) = 0 ,

donde
r = xi + yj + zk, r1 = i + 3k, r2 = 2i j, r3 = j + k,

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 57
1.9. ALGUNOS EJEMPLOS RESUELTOS

con lo cual la ecuaci


on del plano queda como

(x 1) y (z 3)


1 1 3 = 0 (x 1) + 5y 2(z 3) = 0 x 5y + 2z = 7 .
1 1 2

d ) Considere los cuatro puntos Estos cuatro puntos son coplanares? por que? De NO ser coplanares,
encuentre la distancia del cuarto punto al posible plano que contiene a los otros tres.
Soluci on: Para verificar si el cuarto punto esta en el plano, verificamos si cumple la ecuacion que
lo define
(1) 5(0) + 2(1) 6= 7 ,

ar
los cuatro puntos no son coplanares. Para calcular la distancia del cuarto punto al plano se
construye el vector unitario normal al plano
ab 1 1

in
P =
n = (i 5j + 2k) , P c = (i 5j + 2k) (3i + j + k) ,
d=n
|a b| 30 30
con lo cual la distancia al cuarto punto sera

lim
1 6
P c = (i 5j + 2k) (3i + j + k) = .
d=n
30 30

7. Considere los siguientes tres vectores

Soluci
w1 = i + 3k ,
re
w2 = 2i 3j ,

a) Forman una base para R3 ? Explique detalladamente


on: Son linealmente independientes, estos es
w3 = j + k .
rP
w1 + w2 + w3 = 0 = = = 0 ,

que se comprueba directamente al resolver

+2 =0
o

3 =0
3 + =0
ad

b) Si es que forman base, exprese el vector a = i 3j + 3k en la posible base {w1 , w2 , w3 }


Solucion: Como son linealmente independientes, forman base, con lo cual cualquier vector puede
ser expresado como combinaci on lineal de estos tres. Eso es:
rr

1
= 3

+2 =1



= 13
Bo

a = w1 + w2 + w3 3 = 3
3 + = 3




=2

8. Utilizando la notaci
on de ndices muestre si se cumple la siguiente identidad
(a b) = a ( b) b ( a) + (b ) a (a ) b.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 58
1.9. ALGUNOS EJEMPLOS RESUELTOS

Soluci
on:
i j
(a b) = ijk j (klm al bm ) = (li m
j
m l )j (al bm ) = m (ai bm ) l (al bi ) ,

expandiendo la derivada

(a b) = bm m (ai ) + ai m (bm ) bi l (al ) al l (bi ) (b )a + ( b)a ( a)b (a )b .

9. La trayectoria de un punto en el plano vista por un observador 1 es

r1 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j .

ar
a) Exprese las aceleraciones radiales y tangenciales de esta partcula.
on: Es claro que la partcula describe un movimiento circular donde (t) = 3t2
Soluci

dr(t) d(t) da(t)

in
ur v(t) =
r(t) = 5 =5 u a(t) =
= 30t u 30t u
= 30 u r .
dt dt dt

b) Considere ahora un segundo observador, el cual describe una trayectoria respecto al primero

lim
representada por
r21 (t) = (t3 4t)i + (t2 + 4t) j .
Encuentre las expresiones para los vectores posicion, velocidad y aceleracion de la partcula me-
didos respecto al segundo observador.
Solucion: La trayectoria de la partcula respecto al segundo observador sera

con lo cual
re
r2 (t) = r1 (t) r21 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j ((t3 4t)i + (t2 + 4t) j) ,
rP
r2 (t) = 5 cos(3t2 ) t3 + 4t i + 5 sen(3t2 ) t2 4t j ,
   

entonces
dr2 (t)
= 30 sen 3 t2 t + 3 t2 4 i + 30 cos 3 t2 t 2 t 4 j ,
     
v2 (t) =
dt
o

y
ad

dv2 (t)
= 6 30 cos 3t2 t2 + 5sen 3t2 + t i 2 90sen 3t2 t2 15 cos 3t2 + 1 j .
       
a2 (t) =
dt
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 59
1.10. EJERCICIOS PROPUESTOS

1.10. Ejercicios propuestos


1. Utilizando un programa de manipulacion simbolica (ver Apendice 5.1) realice las siguientes tareas.

a) Calcule la funcion f (z) = ez a partir de su expansion en serie que la define. Calcule tambien f (z)
in
cuando z = e 6 para n = 0, 1, 2, . . . , 12. Para los diferentes valores de n haga una tabla con los
valores de: = n z z z
6 , Re (z), Im (z), Re (e ), Im (e ), |z| y la fase de e .
b) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de:
Re (senh(z)), Im (senh(z)), |senh(z)| y la fase de senh(z).
c) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de:
Re (cosh(z)), Im (cosh(z)), | cosh(z)| y la fase de cosh(z).

ar
d ) Dados los siguientes vectores
A = i1 + 2i2 + 3i3 , B = 4i1 + 5i2 + 6i3 , C = 3i1 + 2i2 + i3 , D = 6i1 + 5i2 + 4i3

in
Encuentre:
1) A + B + C + D , A + B C D , A B + C D , A + B C + D
2) El
angulo entre los vectores A, B, C, D y los vectores base i1 , i2 , i3 .

lim
3) La magnitud de los vectores A, B, C, D.
4) El
angulo entre A y B y entre C y D.
5) La proyecci
on de A sobre B.
6) Son los vectores A, B, C, D coplanares?
7) Encuentre (A + B) (C + D)

9) C (A B). re
8) Los productos A B, B C, C D y los angulos que estos forman con D.

2. Auguste Bravais9 se dio cuenta que replicando un arreglo geometrico muy simple, se puede describir
rP
una estructura cristalina. Dicho de otro modo, que conociendo una celda simple, podemos conocer la
estructura cristalina. Esto es que las posiciones de los atomos en una red cristalina puede ser descrita por
un vector R = a + b + c = n1 a1 + n2 a2 + n3 a3 = ni ai donde los ai son vectores no coplanares (vectores
primitivos o, simplemente en nuestro lenguaje, vectores base). Los ni son n umeros enteros (negativos,
cero o positivos). La posici on de cada atomo de un cristal puede ser descrita como reescalamientos
o

(discretos) de este vector generico o, de manera mas precisa, la traslacion del origen de coordenadas
por un vector. Ese concepto se conoce como redes de Bravais10 . En cada red puede haber varios vectores
primitivos11 . Se puede definir la celda primitiva como la estructura mnima que replicada reproduce
ad

todo el cristal. Vale decir la estructura cristalina es invariante bajo traslaciones espaciales del tipo
R0 = R + T con T = mi ai .

a) Redes de Bravais bidimensionales. Tal y como muestra la Figura 1.7 existen 5 tipos distintos
rr

de redes de Bravais bidimensionales.


1) Dada la red bidimensional de la Figura 1.8 encuentre todos los posibles vectores primitivos y
celdas primitivas asociadas.
Bo

2) La humanidad ha estado seducida por la geometra desde que empezo a representar figuras.
A partir de las cuatro imagenes que se ilustran en la Figura 1.9, encuentre todos los posibles
vectores y celdas primitivas asociadas.
9 http://en.wikipedia.org/wiki/Auguste_Bravais
10 http://en.wikipedia.org/wiki/Bravais_lattice
11 http://www.engr.sjsu.edu/rkwok/Phys175A/Chapter%201.pdf

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 60
1.10. EJERCICIOS PROPUESTOS

ar
in
lim
Figura 1.7: Las 5 redes de Bravais bidimensionales fundamentales: 1 Oblicuas, 2 rectangular, 3 rectangu-
lar centrada (r
ombica), 4 hexagonal, y 5 cuadrada. Figura tomada de http://en.wikipedia.org/wiki/
Bravais_lattice
re
3) Maurits Cornelis Escher12 fue un fenomenal dibujante holandes, quien se intereso por las
rP
simetras de los grupos de imagenes de papel tapiz. Berend, hermano de Maurits, era cris-
tal
ografo y le mostro la belleza de las simetras de la naturaleza. En las cuatro obras del
genero de Teselado13 de M.C. Escher, presentadas en la Fig 1.10 encuentre todos los posibles
vectores y celdas primitivas asociadas.
b) Redes de Bravais Tridimensionales. Este tipo de redes complica un poco mas el escenario.
o

Se puede demostrar que existen 14 de estas redes, tal y como se muestran en la Figura 1.11
Muestre que los vol umenes de ocupacion atomica, para los sistemas Monoclnico, Triclnico,
ad

Ortorombico, Tetragonal, Romboedrico, exagonal y c ubico, corresponden a las expresiones


que se muestran en la Figura 1.11.
El sistema cubico, el m as simple, corresponde a un sistema con un u nico parametro de red
a = |a|, ya que a = b = c. Ademas, una posible descripcion, para el caso mas simple, es
rr

a = i; b = j; c = k, los tres vectores cartesianos ortogonales. Existen otros sistemas que


tambien estan asociados al c ubico. Estos son el sistema cubico cara centrada (fcc por sus
siglas en ingles) y c
ubico cuerpo centrado (bcc). En el primero existen atomos en el centro de
Bo

cada una de las caras del cubo definido por la trada, a = b = c. En el sistema fcc se a nade
un atomo la centro del cubo simple.
1) Muestre que un sistema bcc tambien puede ser descrito por los vectores primitivos: a = ai,
b = aj y c = a(i + j + k)/2. Dibuje la celda primitiva y calcule su volumen.
12 http://en.wikipedia.org/wiki/M._C._Escher
13 http://en.wikipedia.org/wiki/Tessellation

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 61
1.10. EJERCICIOS PROPUESTOS

ar
Figura 1.8: Red cristalina bidimensional.

in
2) Muestre que un sistema bcc tambien puede ser descrito por los vectores primitivos: a =

lim
a(j + k i)/2, b = a(k + i j)/2 y c = a(i + j k)/2. Dibuje la celda primitiva y calcule
su volumen.
3) Muestre que un sistema fcc tambien puede ser descrito por los vectores primitivos: a =
a(j + k)/2, b = a(i + k)/2 y c = a(i + j)/2. Otra vez, dibuje la celda primitiva y calcule
su volumen.
Se puede definir la red recproca como

a0 =
bc
a (b c)
;
re
b0 =
ca
a (b c)
; y c0 =
ab
a (b c)
;
rP
De esta manera es claro que, por construccion, a0 b = a0 c = 0 y ademas a0 a = 1. Con
0 0
lo cual podemos generalizarlo como ei
ej = ji . Exprese los vectores y las celdas recprocas
para los sistemas c
ubico simple, y los distintos bcc y fcc. Calcule ademas el volumen de cada
celda recproca.
o

3. Considerando que
ad

r = x i + y j + z k = xm im ,
A = A(r) = A(x, y, z) = Ai (x, y, z)ii y B = B(r) = B(x, y, z) = B i (x, y, z)ii
= (r) = (x, y, z) y = (r) = (x, y, z)
rr

usando la notaci
on de ndices e inspirandose en las secciones 1.6.3, 1.7.5 y 1.9, muestre las siguientes
identidades vectoriales
a) () = +
Bo

b) (A) = A + () A
c) = 0, tambien ( A) y que puede decir de ( A)?
d ) (A B) = ( A) B + A ( B)
e) ( A) = ( A) 2 A

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 62
1.10. EJERCICIOS PROPUESTOS

ar
in
lim
Figura 1.9: Cuatro detalles geometricos. Cuadrante I: Mural egipcio. Cuadrante II: Mural Mural Asirio.
Cuadrante III: Tejido Tahit. Cuadrante IV: Ilustracion en pieza de porcelana china. Tomado de http:
//en.wikipedia.org/wiki/Wallpaper_group

x(t) = 2t2 ;
re
4. Una partcula se mueve bajo la ley r(t) = x(t)i + y(t)j + z(t)k con

y(t) = t2 4t; z(t) = 3t 5.


rP
El parametro t representa el tiempo. Encuentre las expresiones para la aceleracion y la velocidad de la
on del vector i 3j + 2k.
partcula, para t = 1 y en la direcci
5. Suponga ahora el caso general de una partcula que se mueve en una curva descrita por r(t) = x(t)i +
y(t)j + z(t)k. Muestre que el vector velocidad es tangente a la trayectoria descrita
o

on vectorial para una trayectoria recta que pasa por los puntos P (1, 2, 3) y
6. Encuentre la ecuaci
Q (1, 1, 1)
ad

angulo entre los siguientes planos x + y + z = 9 y x + y z = 3.


7. Encuentre el
8. Un fluido se considera irrotacional si su campo de velocidades v = v(r) = v(x, y, z) cumple con la
on v = 0. Suponga, ahora que v = (x + 2y + az)i + (bx 3y z)j + (4x + cy + 2z)k.
ecuaci
rr

a) Encuentre el valor de a, b y c para que este campo de velocidades sea irrotacional


b) Es intuitivo convencerse que si v = 0 v = . Encuentre expresion para la funci
on
Bo

potencial = (r) = (x, y, z)


R
c) Considere la siguiente integral I = C dr v. Donde C es el circuito a recorrer.
1) Calcule el valor de la integral I a lo largo del trayecto: (0, 0, 0) (1, 1, 0) mediante una seg-
mento de recta. Luego, de (1, 1, 0) (2, 0, 0) a lo largo de otro segmento de recta. Finalmente
regresando (2, 0, 0) (0, 0, 0) tambien siguiendo una recta.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 63
1.10. EJERCICIOS PROPUESTOS

ar
in
lim
Figura 1.10: Teselados de M.C. Escher, tomados de http://www.wikipaintings.org/en/
paintings-by-genre/tessellation?firstArtist=m-c-escher#artist-m-c-escher

re
2) Calcule el valor de la integral I de (0, 0, 0) (2, 0, 0) a lo largo de un arco de circunferencia
on (x1)2 +y 2 = 1. Ahora regresando de (2, 0, 0) (0, 0, 0) tambien
rP
que cumple con la ecuaci
a traves de una recta.
3) Que puede concluir del campo v?
9. Dos funciones complejas Z1 (t) y Z2 (t) cumplen con las siguientes ecuaciones
dZ1 i dZ2 i
o

== y ==
dt Z1 Z2 dt Z2 Z1
Muestre que las siguientes cantidades son constantes.
ad

Z1 + Z2
|Z1 Z2 |
|Z1 |2 + |Z2 |2
rr

10. Considere la siguiente ecuaci


on
z 7 4z 6 + 6z 5 6z 4 + 6z 3 12z 2 + 8z + 4 = 0
Bo

Encuentre sus races sabiendo que z 3 = 2.


11. Muestre que la expansi
on binomial puede ser escrita como
n
X n!
(1 + x)n = Am (n) xm con Am (n) =
m=0
m!(n m)!

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 64
1.10. EJERCICIOS PROPUESTOS

ar
in
lim
re
rP
Figura 1.11: Las 14 Redes de Bravais Tridimensionales y las estructuras cristalinas asociadas. Tomado de
http://en.wikipedia.org/wiki/Bravais_lattice
o
ad

n
Si est on anterior, considere ahora una parecida: 1 + ei
a convencido de la expansi y muestre que
n    
X
n n n
Am (n) cos(n) = 2 cos cos
2 2
rr

m=0

y
n    
X
n n n
Am (n) sen(n) = 2 cos sen
Bo

m=0
2 2

12. Las funciones hiperb


olicas se definen como

ex + ex ex ex
cosh(x) = y senh(x) =
2 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 65
1.10. EJERCICIOS PROPUESTOS

y de manera an
aloga a las funciones trigonometricas tendremos el resto de funciones

senh(x) 1 1 1
tanh(x) = ; sech(x) = ; csech(x) = ; ctanh(x) = ;
cosh(x) cosh(x) senh(x) tanh(x)

a) Muestre las siguientes equivalencias

cosh(x) = cos(ix), i senh(x) = sen(ix), cos(x) = cosh(ix) y i sen(x) = senh(x)

b) Muestre las siguientes identidades

cosh2 (x) senh2 (x) = 1; sech2 (x) = 1 tanh2 (x); cosh(2x) = cosh2 (x) + senh2 (x)

ar
c) Resuelva las siguientes ecuaciones hiperbolicas

cosh(x) 5senh(x) 5 = 0, 2 cosh(4x) 8 cosh(2x) + 5 = 0 y cosh(x) = senh(x) + 2sech(x)

in
d ) La posici puede expresarse en
on de una partcula vista desde dos observadores relativistas O y O
termino de funciones hiperbolicas como

lim
 
cosh() senh()
= L x con {, } = 0, 1 y L =
x
senh() cosh()

Encuentre la matriz L x
tal que x = L
2 0 2 1 2 0 2
Muestre que ds = (x ) (x ) = ( x ) ( x1 )2 .

re
o rP
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 66
Bibliografa

ar
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici
on
(Academic Press, Nueva York)
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva

lim
York)
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)

[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition,
London:
re
[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Enginee-
rP
ring (Cambridge University Press)
[7] Santal
o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[8] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
o
ad
rr
Bo

67
Captulo 2

ar
Espacios Vectoriales Lineales

in
lim
re
orP
ad
rr
Bo

68
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

2.1. Grupos, cuerpos y espacios vectoriales


2.1.1. Grupos
Considere el siguiente conjunto G = {g1 , g2 , g3 , , gn , } y la operacion interna  (la ley del grupo).
Entonces los elementos del conjunto forman un grupo abeliano1 respecto a la operacion  si gi G se
tiene que:

on : {gi G, gj G} gk = gi  gj G
1. Cerrada respecto a la operaci
2. Asociativa respecto a la operaci
on : gk  (gi  gj ) = (gk  gi )  gj
3. Existencia de un elemento neutro: g
G gi  g
= gi = g
 gi

ar
4. Existencia de un elemento inverso: gi G gi1 G gi  gi1 = gi1  gi = g

on : gi  gj gj  gi .
5. Conmutativa respecto a la operaci

in
Ejemplos de grupos:

lim
Los enteros Z = { 3 2, 1, 0, 1, 2, 3, } respecto a la suma;
Los racionales respecto a la suma y a la multiplicacion;
umeros complejos z = ei respecto a la multiplicacion;
Los n

Las rotaciones en 2 dimensiones (2D), y las rotaciones en 3D (grupo no-abeliano);

Dado un grupo de tres elementos: G = {1, a, b}, con g


re
El conjunto de matrices de dimensiones n m respecto a la suma, es un grupo abeliano.
1 y la operacion . Por construccion, si que-
rP
remos que la operaci
on de dos de los elementos provea un tercero distinto, entonces la UNICA tabla de
multiplicaci
on posible ser
a:

 1 a b
1 1 a b
o

a a b 1
b b 1 a
ad

Notemos que el grupo m as simple ser


a aquel conformado unicamente por el elemento neutro: G = {1}.
Es importante se nalar que si s
olo se cumplen las cuatro primeras condiciones entonces se dice que sim-
plemente forman grupo respecto a la operacion .
Se pueden definir subgrupos si un subconjuntos de los elementos de un grupo gi G tambien forman un
rr

grupo.
El numero de los elementos de un grupo puede ser finito o infinito. En el primer caso se denominan
grupos finitos y el n
umero de elementos que contenga se conoce como el orden del grupo. Un grupo finito
Bo

1 NIELS HENRIK ABEL, (1802-1829 Noruega) Pionero en el desarrollo de diferentes ramas de la matem atica moderna, Abel
mostro desde su infancia un notable talento para el estudio de las ciencias exactas. Tal predisposici on se vera muy pronto
confirmada por sus precoces investigaciones sobre cuestiones de a lgebra y c
alculo integral, en particular sobre la teora de las
integrales de funciones algebraicas (a las que se denominara abelianas en honor de su formulador) que no habra de publicarse
hasta 1841, doce anos despues de su fallecimiento. En 2002 el gobierno noruego lanz o el premio Abel que llenar a el vaco que
existe en la premiaci
on Nobel del gobierno sueco, en el cual no existe premiaci on para la comunidad matem atica.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 69
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

que se construye a partir de una operacion con un u nico miembro se denomina grupo cclico, y el caso
mas elemental es G = I, X, X 2 , X 3 , , X g1 . Obviamente hemos definido aqu: X 2 = XX y X 3 =
X 2 X = XXX y as consecutivamente hasta ejecutarse g 1 veces, entonces se retoma el elemento
identidad, esto es: X g1  X = X g = I.
Consideremos los siguientes conjuntos y operacion2 multiplicacion modulo X, es decir (a b)modX :

Gmod8 = {1, 3, 5, 7} y la operaci


on multiplicacion modulo 8. De esta manera construimos la tabla de
multiplicaci
on del grupo

mod8 1 3 5 7
1 1 3 5 7
3 3 1 7 5

ar
5 5 7 1 3
7 7 5 3 1

in
Recordemos que la regla usada, por ejemplo para 3 y 7, es la siguiente: 3 7 = 21 y el residuo de dividir
21 entre 8 es 5, por lo tanto (3 7)mod8 = (21)mod8 = 5. (21 8 = 2 8 + 5)
Gmod5 = {1, 2, 3, 4} y la operaci
on multiplicacion modulo 5. Tabla:

lim
mod5 1 2 3 4 mod5 1 2 4 3
1 1 2 3 4 1 1 2 4 3
2 2 4 1 3 2 2 4 3 1
3 3 1 4 2 4 4 3 1 2
4

Gmod24 = {1, 5, 7, 11} y la operaci


4 3 2 1
re 3

on multiplicacion modulo 24. Tabla de multiplicacion:


3 1 2 4
rP
mod24 1 5 7 11
1 1 5 7 11
5 5 1 11 7
7 7 11 1 5
11 11 7 5 1
o

G = {1, i, 1, i} y la operaci
on multiplicacion:
ad

1 i -1 -i
1 1 i -1 -i
i i -1 -i 1
rr

-1 -1 -i 1 i
-i -i 1 i -1
Bo

Diremos que los grupos Gmod8 y Gmod24 son isomorfos porque tienen tablas equivalentes de multiplica-
on. Esto es, dado un grupo generico G = {1, A, B, C} su tabla de multiplicacion sera:
ci
2 Vamos a considerar lo que se conoce como Arim etica Modular. Sabemos que para la divisi on de dos enteros a y b (b 6= 0)
existe un unico entero c tal que a = cb + r con 0 r |b|. Y como es conocido: a, b, c y r son: el dividendo, el divisor, el cociente
y el resto, respectivamente. Cuando r = 0 se dice que a es divisible por b. En esta arim eticatan particular se establece una
relacion de congruencia sobre los enteros: para un entero positivo n, dos enteros a y b se llaman congruentes m odulo n (mod n)
si a y b tienen el mismos resto r cuando se dividen entre n, y se denota a b mod n.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 70
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

1 A B C
1 1 A B C
A A 1 C B
B B C 1 A
C C B A 1

Note que A1 =A y que siempre la operacion de dos elementos da uno distinto a los operados.
De igual forma los grupos G y Gmod5 son isomorfos con una tabla de multiplicacion

1 A B C
1 1 A B C
A A B C 1

ar
B B C 1 A
C C 1 A B

in
2.1.2. Cuerpo
Definiremos como un cuerpo (o campo) el conjunto A = {1 , 2 , 3 , , n , } sobre el cual est
an

lim
definidas dos operaciones: suma (+) y multiplicacion () y que satisfacen las siguientes propiedades:

1. Forman un grupo abeliano respecto a la suma (+) con el elemento neutro representado por el cero 0.
2. Forman un grupo abeliano respecto a la multiplicacion (). Se excluye el cero 0 y se denota el elemento
neutro de la multiplicaci
on como 1.

re
3. Es distributiva respecto a la suma (+) : Dados i , j y k se tiene que
i (j + k ) = i j + i k .
rP
Ejemplos tpicos de campos lo constituyen los racionales Q, los n
umeros reales R y los n
umeros complejos
C. Normalmente se refiere estos campos como Campos Escalares.

2.1.3. Espacios vectoriales lineales


Sea el conjunto de objetos V = {|v1 i , |v2 i , |v3 i |vi i }. Se denominara V un espacio vectorial lineal
o

y sus elementos |vi i vectores, si existe una operacion suma, , respecto a la cual los elementos |vi i V
forman un grupo abeliano y una operaci on multiplicacion por un elemento de un campo, K = {, , },
ad

tal que: (tambien suele decirse: un espacio vectorial V sobre K)

on suma : |vi i , |vj i V |vk i = |vi i  |vj i V


1. V es cerrado bajo la operaci
on suma  es conmutativa: |vi i , |vj i V |vi i  |vj i = |vj i  |vi i
2. La operaci
rr

on suma  es asociativa: |vi i , |vj i , |vk i V (|vi i  |vj i)  |vk i = |vi i  (|vj i  |vk i)
3. La operaci
nico elemento neutro |0i : |0i  |vi i = |vi i  |0i = |vj i |vi i V
4. Existe un u
Bo

5. Existe un elemento simetrico para cada elemento de V: |vi i V |vi i / |vi i  |vi i = |0i
6. V es cerrado bajo el producto por un escalar: K y cualquier |vi i V |vi i V

7. ( |vi i) = () |vi i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 71
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

8. ( + ) |vi i = |vi i  |vi i


9. (|vi i  |vj i) = |vi i  |vj i
10. 1 |vi i = |vi i |vi i V

Es importante resaltar lo siguiente: existe dos objetos neutros, el vector |0i V y el escalar 0 K y
tambien dos operaciones producto diferentes, el producto de dos escalares dentro de K y el producto de un
escalar K por un vector |vi V.
Notemos tambien que podemos definir subespacios S vectoriales dentro de los espacios vectoriales. Ellos
ser
an aquellos conjuntos de vectores que cumplan con los requisitos anteriores pero ademas cerrados dentro
de los mismos conjuntos de vectores. Se puede ver entonces que la condicion necesaria y suficiente para que

ar
S V sea un subespacio vectorial de V es que para cualesquiera |ui i y |uj i de S y para cualesquiera y
de K se tiene que: |ui i + |uj i S.

in
2.1.4. Ejemplos espacios vectoriales
1. Los conjunto de los n
umeros reales V = R y el conjunto de los numeros complejos V = C con el campo
K de reales o complejos y definidas las operaciones ordinarias de suma y multiplicacion.

lim
Cuando el campo K es el conjunto de los n umeros reales se dira que es un espacio vectorial real de
umeros reales si V R, pero si V C se dira un espacio vectorial real de n
n umeros complejos. Por
su parte, si K C diremos que es un espacio vectorial complejo. Siempre se asociara el campo de
escalares al espacio vectorial: se dir
a que es un espacio vectorial sobre el campo de los escalares. Es
decir, si el campo es real (complejo) se dira que el espacio vectorial es real (complejo).

umeros, con la operaci


por escalares.
re
2. El espacio V Rn = R R R, vale decir el producto cartesiano de R, cuyos elementos son
nuplas de n on suma ordinaria de vectores en n-dimensionales y la multiplicaci
on
rP
|xi = (x1 , x2 , x3 , xn ) |yi = (y1 , y2 , y3 , , yn )
|xi  |yi (x1 + y1 , x2 + y2 , x3 + y3 , xn + yn )
|xi = (x1 , x2 , x3 , xn ) .
o

on finita. Igualmente, sera un espacio vectorial Cn = CC C


Este espacio vectorial es de dimensi
para el cual los elementos xi C. Si para este caso el campo sobre el cual se define el espacio vectorial
ad

Cn es real, tendremos un espacio vectorial real de numeros complejos.


Es obvio que el caso V R para el cual |xi1 = (x1 , 0, 0, , 0) y |yi1 = (y1 , 0, 0, , 0) o cual-
quier espacio de vectores formados por las componentes, i.e. |xii = (0, 0, 0, , xi , 0) y |yii =
an subespacios vectoriales dentro de Rn .
(0, 0, 0, , yi , 0) formar
rr

En el caso especfico de R3 , y en donde hemos desarrollado todo un conjunto de conceptos matem


aticos,
es bueno comentar sobre la equivalencia que hemos tomado como obvia entre dos definiciones diferentes:
Bo

Los vectores a = (a1 , a2 , a3 ) y b = (b1 , b2 , b3 ) con sus respectivas operaciones para la suma
a + b = (a1 + b1 , a2 + b2 , a3 + b3 ) y multiplicacion por un escalar a = (a1 , a2 , a3 ), con {ai },
{bi } y R.
Los vectores geometricos, es decir, segmentos orientados en el espacio con un origen com un y
donde la suma se defini
o mediante la regla del paralelogramo y el producto por un escalar como
el alargamiento o acortamiento de los segmentos o flechas con el posible cambio de direccion.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 72
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

Aunque son vectores de R3 es bueno tener claro que se trata de objetos diferentes que viven en
espacios vectoriales diferentes. Se puede decir tambien que son dos representaciones diferentes para los
vectores. Es buena la ocasi on para senalar que existe una manera de pasar de una representaci on a
otra, esto se hace por medio de una funcion que asigne a una trada (x1 , x2 , x3 ) una y solo una flecha
(y viceversa), conservando por supuesto las operaciones de suma y multiplicacion por escalares. A este
tipo de funciones se les denomina un isomorfismo.
Para finalizar, tambien es posible ver R3 simplemente como un conjunto de puntos donde se pueden
definir superficies embebidas, como por ejemplo una esfera, S2 , centrada en el origen y de radio R. En
un punto q sobre la esfera es posible generar un plano tangente a la esfera y en ese punto construir un
espacio vectorial con todos los vectores cuyo origen esta en q, y por lo tanto, son tangentes a la esfera.
En el lenguaje de la Geometra Diferencial y las Variedades a este conjunto de vectores se le denota

ar
con: Tq S2 . Lo anteriormente dicho se puede generalizar para Rn .
3. El espacio E constituido por vectores |xi = (x1 , x2 , x3 , xn , ) contables pero con infinitas com-
ponentes.

in
|xi = (x1 , x2 , x3 , , xn , ) |yi = (y1 , y2 , y3 , , yn , )
|xi  |yi (x1 + y1 , x2 + y2 , x3 + y3 , , xn + yn , )

lim
|xi = (x1 , x2 , x3 , , xn , ) ,

con la restricci
on que
n
X
lm xi = L , con L finito .
n
i=1

|xi = Mab
re
4. El conjunto de la matrices n n reales o complejas con el campo K real o complejo.

|yi = Nab
rP
|xi  |yi Mab + Nab = (M + N )ab
|xi = Mab = (M )ab

Es tambien obvio que se podr


an formar subespacios vectoriales cuyos elementos sean matrices de
on menor a n n.
dimensi
o

5. El conjunto de los vectores geometricos, o vectores cartesianos, en 2 y 3 dimensiones con las propiedades
habituales de suma vectorial y multiplicacion por un escalar.
ad


6. El conjunto de todos los polinomios con coeficientes reales: P = a0 , a1 x, a2 x2 , , an xn , , con 
la suma ordinaria entre polinomios y la multiplicacion ordinaria de polinomios con escalares.
7. Espacios Funcionales (de los cuales los polinomios son un caso particular). En estos espacios los vectores
rr

ser
an funciones, la suma ser a la suma ordinaria entre funciones y la multiplicacion por un escalar
tambien ser
a la multiplicaci
on ordinaria de una funcion por un elemento de un campo
Bo

|f i = f (x) |gi = g (x)


|f i  |gi f (x) + g (x) (f + g) (x)
|f i = (f ) (x) f (x) .

8. El conjunto de todas las funciones continuas e infinitamente diferenciables, definidas en el intervalo



[a, b] : C[a,b] .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 73
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

9. El conjunto de todas las funciones complejas de variable real, (x) , definidas en [a, b] , de cuadrado
Rb 2
integrable (es decir para las cuales a dx | (x)| sea finita). Este espacio se denomina com unmente
2
L y puede ser definido en un rango [a, b], finito o infinito, y para mas de una variable.
10. El conjunto de todas las soluciones de un sistema de ecuaciones lineales y homogeneas, por ejemplo

a + 3b + c = 0
4a + 2b + 2c = 0

on al conjunto: {a, b = a/2, c = 5a/2}. La suma de estos elementos y la multiplicaci


tiene como soluci on
por un escalar conforman un espacio vectorial en el sentido de que son soluciones del sistema de
ecuaciones.

ar
2.1.5. La importancia de la conceptualizaci
on y la notaci
on

in
En los ejemplos antes mencionados hemos utilizado para representar un vector abstracto la notaci on
de |vi y con estos construimos un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i , , |vn i}. Un espacio
vectorial abstracto sera un conjunto de elementos genericos que satisfacen ciertos axiomas. Dependiendo del
conjunto de axiomas tendremos distintos tipos de espacios abstractos, la teora desarrolla las consecuencias

lim
l
ogicas que resultan de esos axiomas. En matematica el concepto de espacios abstractos es reciente (1928) y,
aparentemente, se le debe a Maurice Frechet3 .
Los elementos de esos espacios se dejan sin especificar a proposito. Ese vector abstracto puede representar,
vectores en Rn , matrices n n o funciones continuas. La notacion |vi, que se denomina un ket y al cual le
corresponde un bra hv2 | proviene del vocablo ingles braket que significa corchete y sera evidente mas adelante
cuando construyamos escalares braket hv2 |v1 i. Esta u
re
til notacion la ideo Paul Dirac4 , uno de los fsicos m
influyentes en el desarrollo de la fsica del siglo XX. En mecanica cuantica un estado cuantico particular
suele representarse por una funci on de onda (x), que depende de la variable posicion x o de una funci
alternativa que puede depender de la variable momentum p. En la notacion de Dirac, el smbolo |i denota
as

on
rP
el estado cuantico sin referirse a la funci
on en particular y tambien sirve para distinguir a los vectores de los
escalares (numeros complejos) que vienen a ser los elementos fundamentales en el espacio de Hilbert de la
mec anica cu
antica.

2.1.6. Ejercicios
o

umeros reales excluyendo 1 y defina la operacion 


1. Sea S el conjunto de todos los n
ad

a  b = a + b + ab

donde + es la suma est


andar entre n
umeros reales.
rr

a) Muestre que [S, ] forman grupo


b) Encuentre la soluci
on en S para la ecuacion 2  x  3 = 7

Bo

3 MAURICE FRECHET (1878 Maligny, Yonne, Bourgogne-1973 Pars, Francia). Vers atil matematico franc
es, con importan-
tes contribuciones en Espacios Metricos, Topologa y creador del concepto de Espacios Abstractos.
4 PAUL ADRIEN MAURICE DIRAC (1902 Bristol, Inglaterra 1984-Tallahassee, EE.UU). Adem as de contribuir de manera
determinante en la comprensi on de la Mecanica Cu antica, es uno de los creadores de la Mecanica Cuantica Relativista la cual
ayud o a comprender el papel que juega el espn en las partculas subatomicas. Por sus importantes trabajos comparti o con
Erwin Schr odinger el Premio Nobel de Fsica en 1933.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 74
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

2. Considere un tri
angulo equilatero. Uno puede identificar operaciones de rotacion alrededor de un eje
perpendicular a la figura y reflexiones respecto a planos que dejan invariante la figura del triangulo.
X1 , X2 , X3 . con

a) Muestre que el conjunto de estas operaciones forma un grupo G4 = I, R, R,
I la operacion identidad; R y R las rotaciones y X1 , X2 y X3 las reflexiones. Muestre adem as,
que las rotaciones forman un subgrupo cclico de orden 3, mientras que las reflexiones forman un
subgrupo cclico de orden 2
b) Construya la tabla de multiplicacion para G4
c) Considere las siguientes matrices

3 3
  12 21

ar
1 0 2 2
I= ; A= B=

0 1
3 3
2 12 2 12

in

1 3 1 3
 
1 0 2 2 2 2
C= ; D= E=

0 1
3 3
2 21 2
1
2

lim
Muestre que forman grupo bajo la multiplicacion de matrices y que ese grupo es isomorfo a G4
d ) Considere las siguientes funciones
1 1 x1 x
f1 (x) = x; f2 (x) = ; f3 (x) = ; f4 (x) = ; f5 (x) = 1 x; f6 (x) = ;
x 1x x x1

re
Muestre que forman grupo bajo la operacion fi (x) fj (x) = fi (fj (x)) y que ese grupo es isomorfo
a G4
rP
.

3. Definamos una operaci


on binaria  como

x  y = x + y + xy

con x, y, R y adem
as 6= 0.
o

a) Demuestre que  es asociativa


ad

1 1 1
 
b) Muestre que  genera un grupo en R . Es decir, x, y R x 6= ,y 6= entonces
x  y forma un grupo

4. Muestre que el siguiente conjunto de transformaciones en el plano xy forman un grupo y construya su


rr

tabla de multiplicaci
on

a) I = {x x y y}
Bo

b) I = {x x y y}
c) Ix = {x x y y}
d ) Iy = {x x y y}

5. Muestre que tambien ser


an espacios vectoriales

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 75

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

a) El conjunto de todas las funciones f = f (x) definidas en x = 1 con f (1) = 0. Si f (1) = c


Tendremos igual un espacio vectorial? Por que?
b) Los vectores (x, y, z) V3 tal que sus componentes satisfacen el siguiente sistema de ecuaciones
algebraico

a11 x + a12 y + a13 z = 0


a21 x + a22 y + a23 z = 0
a31 x + a32 y + a33 z = 0

2.2. Espacios m
etricos, normados y con producto interno

ar
2.2.1. M
etricas y espacios m
etricos
El siguiente paso en la dotacion de propiedades de los espacios lineales lo constituye la idea de metrica o

in
distancia entre sus elementos. El concepto de metrica surge de la generalizacion de la idea de distancia entre
dos puntos de la recta real.
Un espacio vectorial sera metrico si podemos definir una funcion

lim
d : V V R / |xi , |yi , |zi V

tal que se cumple que:


1. d (|xi , |yi) 0 , si d (|xi , |yi) = 0 |xi |yi
2. d (|xi , |yi) d (|yi , |xi)
re
3. d (|xi , |yi) d (|xi , |zi) + d (|yi , |zi) (La desigualdad triangular).
rP
As, diremos que (V, K,, d) es un espacio vectorial, lineal, metrico.

Ejemplos
1. Espacios reales Rn .
o

a) Para R, es decir la recta real, la definicion de metrica es d (|xi , |yi) |x y| .


q
ad

2 2
b) Para R2 , es decir el plano, una definicion de metrica es: d (|xi , |yi) (x1 y1 ) + (x2 y2 ) .
Tambien podemos construir otra definicion de metrica como: d (|xi , |yi) |x1 y1 |+|x2 y2 |. La
primera de estas metricas se conoce como metrica eucldea y la segunda como metrica Manhattan
o metrica de taxistas. Es claro como el mismo espacio vectorial genera varios espacios metricos,
rr

dependiendo de la definici on de metrica. Para estos casos particulares, las metricas miden el
desplazamiento entre dos puntos de forma distinta: en aviones (metrca eucldea) o vehculos
terreste en ciudades.
Bo

c) En general para espacios reales Rn una posible definicion de metrica sera:


q
2 2 2 2
d (|xi , |yi) (x1 y1 ) + (x2 y2 ) + (x3 y3 ) + + (xn yn ) .

Esta definici
on de metrica, o distancia, no es mas que una generalizacion del teorema de Pit
agoras
y se denomina Distancia Euclidiana.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 76

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

2. Espacios unitarios ndimensionales, o espacios complejos, Cn . La definicion de distancia puede cons-


truirse como:
q
2 2 2 2
d (|xi , |yi) |x1 y1 | + |x2 y2 | + |x3 y3 | + + |xn yn |

y es claro que se recobra la idea de distancia en el plano complejo: d (|xi , |yi) |x y|.

3. Para los espacios de funciones C[a,b] una posible definicion de distancia sera:

d (|f i , |gi) max |f (t) g (t)| .


t[a,b]

ar
Es importante destacar que las definiciones de distancia arriba propuesta son invariante bajo traslaciones
de vectores. Esto es: |
xi = |xi + |ai | y i = |yi + |ai, entonces, d (|xi , |yi) d (|
xi , |
y i) .

2.2.2. Normas y espacios normados

in
La idea de distancia (o metrica) es el equipamiento mas elemental que uno le puede exigir a un espacio
vectorial. Mucho m as interesante a un son aquellos espacios vectoriales que estan equipados con la idea de
norma y, a partir de all, se define la idea de distancia. La norma tiene que ver con el tama no del vector y

lim
la metrica tiene que ver con la distancia entre vectores. Cuando definimos la metrica a partir de la norma,
vinculamos las propiedades algebraicas del espacio con sus propiedades geometricas.
La Norma, N (|vi i) k|vi ik, de un espacio vectorial V = {|v1 i , |v2 i , |v3 i |vn i} sera una funci
on
N : V R / |vi i V que cumple con:

1. k|vi ik 0 , si k|vi ik = 0 |vi i |0i


2. k |vi ik = || k|vi ik re
3. k|vi i + |vj ik k|vi ik + k|vj ik (Desigualdad Triangular).
rP
on de Norma induce una metrica de la forma d (|vi i , |vj i) k|vi i |vj ik. Se denota en este
La definici
caso un espacio vectorial normado como (V, K,; kk) y tambien se le conoce como un Espacio de Banach.
El concepto de espacio vectorial normado fue formulado en 1922 de manera independiente por S. Banach5 ,
H. Hahn y N. Wiener.
o

Ejemplos
ad

1. Los espacios reales, Rn y los espacios complejos Cn . Para estos espacios de Banach, la Norma se define
como: ! 12
q X n
2 2 2 2 2
k|xik = |x1 | + |x2 | + |x3 | + + |xn | = |xi | ,
rr

i=1
p
3
es claro que para un espacio en R se cumple que k|xik = x21
+ x22 + x23 , por lo tanto, la idea de
Norma generaliza la noci no del vector |xi. Tambien es claro que la definicion de distancia
on de tama
Bo

se construye a partir de la norma de la forma:


q
2 2 2 2
d (|xi , |yi) k|xi |yik = |x1 y1 | + |x2 y2 | + |x3 y3 | + + |xn yn | .
5 STEFAN BANACH (1892 Kracovia, Polonia-1945 Lvov,Ucrania) Matem atico polaco, uno de los fundadores del Analisis
Funcional Moderno, con sus mayores contribuciones a la teora de espacios topol ogicos. Hizo tambi
en importantes aportes a la
teora de la Medida, Integraci
on y Teora de Conjuntos y Series Ortogonales.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 77

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

2. Para el espacio lineal de matrices n n reales o complejas con el campo K real o complejo, una
definici
on de norma es
Xm X n
kM k = |Mab | ,
a=1 b=1

y la correspondiente definici
on de distancia
m X
X n
d (|xi , |yi) kM N k = |Mab Nab | .
a=1 b=1


3. Para los espacios funcionales C[a,b] una posible definicion de norma sera:

ar
k|f ik = max |f (t)| ,
t[a,b]

otra posible definici


on sera

in
Z ! 12
2
k|f ik = dx |f (x)| .
t[a,b]

lim
2.2.3. Espacios vectoriales con producto interno: Espacios euclidianos
El siguiente paso en la construccion de espacios vectoriales mas ricos es equiparlo con la definici on de
producto interno y a partir de esta definicion construir el concepto de norma y con este el de distancia.
La idea de producto interno generaliza el concepto de producto escalar de vectores en R3 e incorpora a los

re
espacios vectoriales abstractos el concepto de ortogonalidad y descomposicion ortogonal. Historicamente, la
teora de espacios vectoriales con producto interno es anterior a la teora de espacios metricos y espacios de
Banach y se le debe a D. Hilbert6 . Adicionalmente, la semejanza entre la geometra euclidiana y la geometrica
rP
de Rn ha hecho que espacios en los cuales se puedan definir, distancia, angulos, a partir de una definici on
de producto interno, se denominen tambien espacios euclidianos.

Producto interno
En un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i |vn i}, la definicion del producto interno de
o

dos vectores la denotaremos como hvi | vj i y es una funcion: I (|vi i , |vj i) : V V K |vi i , |vj i V, es
decir, asocia a ese par de vectores con un elemento del campo, o cuerpo, K.
ad

Las propiedades que definen el producto interno son:


2
1. hvi | vi i k|vi ik K hvi | vi i 0 |vi i V , si hvi | vi i = 0 |vi i |0i

2. hvi | vj i = hvj | vi i |vi i , |vj i V
rr

3. hvi | vj + vk i = hvi | vj i + hvi | vk i |vi i , |vj i , |vk i V , K


4. hvi + vj | vk i = hvi | vj i + hvi | vk i |vi i , |vj i , |vk i V , K
Bo

5. hvi | 0i = h0| vi i = 0
6 DAVID HILBERT (1862 Kaliningrad, Rusia-1943 G ottingen, Alemania) Matem atico alem an defensor de la axiom atica
como enfoque primordial de los problemas cientficos. Hizo importantes contribuciones en distintas a reas de la matematica,
como: Invariantes, Campos de N
umeros Algebraicos, An alisis Funcional, Ecuaciones Integrales, Fsica-Matematica y C
alculo en
Variaciones.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 78

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

La segunda y cuarta propiedad resultan del hecho de que si el Campo es complejo K = C, entonces

hvi | vi i = 2 hvi | vi i = i2 hvi | vi i = hvi | vi i

lo cual contradice el hecho de que la Norma tiene que ser positiva. Por eso la necesidad de tomar el complejo
conjugado. Se dice entonces, que el producto escalar es antilineal respecto al primer factor y lineal respecto
al segundo.
A partir de la definici
on de producto interno se construyen los conceptos de norma y distancia
p q
k|vi ik = hvi | vi i y d (|vi i , |vj i) k|vi i |vj ik = hvi vj | vi vj i

ar
La desigualdad de Cauchy-Schwarz: los
angulos entre vectores reales y complejos
Todo producto interno hvi | vj i definido en un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i |vn i}
cumple con la desigualdad de Cauchy-Schwarz

in
2
|hvi | vj i| hvi | vi i hvj | vj i |hvi | vj i| k|vi ik k|vj ik .

Es claro que si |vi i = |0i |vj i = |0i se cumple la igualdad y es trivial la afirmacion.

lim
Para |vi i |vj i cualesquiera, procedemos construyendo |vk i = |vi i + |vj i, y tendran valores
particulares, por lo tanto
hvk | vk i hvi + vj | vi + vj i 0 ,
esto significa que

2 re
hvi + vj | vi + vj i = hvi | vi i + hvi | vj i + hvj | vi i + hvj | vj i 0
2
= || hvi | vi i + hvi | vj i + hvj | vi i + || hvj | vj i 0 .
rP
Si = hvj | vj i, se tiene que
2
hvj | vj i hvi | vi i + hvi | vj i + hvj | vi i + || 0
2
hvj | vj i hvi | vi i hvi | vj i hvj | vi i ||

seguidamente seleccionamos = hvj | vi i y por lo tanto = hvi | vj i y consecuentemente


o

hvj | vj i hvi | vi i hvj | vi i hvi | vj i + hvi | vj i hvj | vi i hvj | vi i hvi | vj i


ad

2
hvj | vj i hvi | vi i hvi | vj i hvj | vi i = |hvi | vj i| . J

De la desigualdad de Cauchy-Schwarz y la definicion de norma se desprende que


rr

2
|hvi | vj i| |hvi | vj i|
2 2 1 1 1,
k|vi ik k|vj ik k|vi ik k|vj ik
Bo

angulo entre los vectores abstractos |vi i |vj i como


por lo tanto podemos definir el

|hvi | vj i|
cos(G ) = ,
k|vi ik k|vj ik

donde hemos denotado como G un


angulo generico que forman vectores reales o complejos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 79

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

Si estamos considerando espacios vectoriales reales -en los cuales el Cuerpo corresponde a los n umeros
reales- entonces el
angulo definido entre vectores abstractos reales corresponde al que intuitivamente siempre
hemos considerado para los vectores cartesianos y que discutimos en la seccion 1.2.3,

|hvi | vj i|
cos(R ) = con 0 R ,
k|vi ik k|vj ik

donde se toma R = 0 para vectores colineales y R = para vectores opuestos (antilineales). Si bien es
cierto que esta definici
on coincide con la de los vectores cartesianos, hay que resaltar que la estamos exten-
diendo para cualquier vector abstracto, vale decir: funciones reales, matrices, y todos los objetos matem aticos
que cumplan con las reglas para los espacios vectoriales expuestas en 2.1.3.
Para el caso de espacios vectoriales complejos la situacion es mas sutil y significa definir un angulo entre

ar
dos vectores abstractos y complejos, sin embargo podemos abordar el problema suponiendo:
un espacio complejo ndimensional de nuplas de n umeros complejos |zi (z1 , z2 , zn ) asociado
(isomorfo) a un espacio vectorial real de 2n dimensiones con vectores representados por 2nuplas de

in
numeros reales |wi (Re(z1 ), Re(z2 ), Re(zn ), Im(z1 ), Im(z2 ), Im(zn )) donde hemos representado
Re(zj ) y Im(zj ) como las partes reales e imaginarias de zj , respectivamente o,

lim
directamente aP partir de una definicion de producto interno entre vectores complejos implementado
n
por hwi | vj i = j=1 wj vj

Ambas aproximaciones no son del todo independientes pero igualmente justificadas7 .


Consideremos el segundo caso, vale decir: directamente a partir de una definicion de producto interno
entre vectores complejos. Para este caso consideramos un angulo complejo y cos(C ) una funcion de variable
compleja, que puede ser expresada en su forma polar como

cos(C ) =
|hvi | vj i|
k|vi ik k|vj ik
re
cos(C ) = e con = | cos(C )| < 1 .
rP
Entonces podemos asociar = cos(H ) y definir H , en el rango 0 H /2, como el angulo hermtico
entre los vectores complejos |vi i y |vj i. Mientras que , definido en , corresponde al pseudo
angulo de Kasner, que representa la orientacion o rotacion del angulo hermtico y no tiene mayor significado

al cuantificar el
angulo entre esos dos vectores. Esta diferencia de significados puede intuirse cuando multi-
o

plicamos |vi i y |vj i, por una constante compleja: |


vi i i |vi i y comprobamos que el angulo H permanece
inalterado y no as el angulo de Kasner8 .
ad

Teoremas del Coseno y de Pit


agoras
A partir de la definici
on de norma se obtiene
rr

2
k|vi i + |vj ik = hvi + vj | vi + vj i = hvi | vi i + hvi | vj i + hvi | vj i + hvj | vj i
= hvi | vi i + hvj | vj i + 2 Re (hvi | vj i)
Bo

con lo cual hemos generalizado el teorema del coseno para un espacio vectorial abstracto
2 2 2
k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(G ) .
7 Scharnhorst, K. (2001). Angles in complex vector spaces. Acta Applicandae Mathematica, 69(1), 95-103.
8 Puede consultarse Reju, V. G., Koh, S. N., y Soon, Y. (2009). An algorithm for mixing matrix estimation in instantaneous
blind source separation. Signal Processing, 89(9), 1762-1773.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 80

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

De tal forma que para espacios vectoriales reales tendremos


2 2 2
k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos() con 0;

y para espacios vectoriales complejos


2 2 2
k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(H ) cos con 0 H /2 .

y para el caso que los vectores |vi i |vj i sean ortogonales, esto es hvi | vj i = 0, tendremos el teorema de
Pit
agoras generalizado
2 2 2
k|vi i + |vj ik = k|vi ik + k|vj ik .

ar
Ejemplos
1. Espacios euclidianos reales, Rn y espacios euclidianos complejos Cn .
Los vectores en estos espacios euclidianos reales pueden ser representados por |xi = (x1 , x2 , xn )

in
|yi = (y1 , y2 , , yn ) y el producto interno queda definido por
n
X
hx| yi = x1 y1 + x2 y2 + x3 y3 , xn yn = xi yi ,

lim
i=1

on de producto interno coincide, para R2 (y R3 ) con la idea de producto


es claro que esta definici
escalar convencional que consideramos en las secciones 1.2.3 y 1.4.2, vale decir

a = ax i + ay j
a b = ax bx + ay by .
b = bx i + by j

re
Ahora bien, el lector puede comprobar que para vectores en R2 tambien se puede proveer una definici
on
rP
de producto interno
a ~ b = 2ax bx + ax by + ay bx + ay by ,
igualmente v
alida, con lo cual es claro que en un mismo espacio vectorial pueden coexistir diferentes
productos internos.
Por su parte, la norma es
o

v
q u n
p uX
ad

2 2 2 2
k|xik = hx| xi = x1 + x2 + x3 , + xn = t x2i .
i=1

La distancia tambien recupera la idea intuitiva de distancia euclidiana


rr

p
d (|xi , |yi) k|xi |yik = hx y| x yi

q
Bo

2 2 2 2
d (|xi , |yi) = (x1 y1 ) + (x2 y2 ) + (x3 y3 ) + + (xn yn ) .

El teorema del coseno queda como


v v
n
X n
X n
X
u n u n
2
uX uX
(xi + yi ) = x2i + 2
y + 2t
i x2 i
t yi2 cos() ,
i=1 i=1 i=1 i=1 i=1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 81

2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

mientras que el teorema de Pit


agoras es
n
X n
X n
X
2
(xi + yi ) = x2i + yi2 ,
i=1 i=1 i=1

obvio que para R2 tanto el teorema del coseno como el teorema de Pitagoras retoman su forma tradi-
cional. Finalmente la desigualdad de Cauchy-Schwarz se expresa
2
Xn n
X Xn
2
|hx| yi| k|xik k|yik xi yi xi yi2 .


i=1 i=1 i=1

ar

2. Para los espacios de funciones continuas C[a,b] una posible definicion de producto interno sera
Z b
hf | gi = dx f (x) g (x) ,

in
a

de la cual se deriva la expresi


on para la norma
Z b
2 2

lim
k|f ik = hf | f i = dx |f (x)| ,
a

la distancia entre funciones quedar


a definida como
q

p
d (|f i , |gi) k|f i |gik hf g| f gi = hf | f i hf | gi hf | gi + hg| gi

d (|f i , |gi) =
s
Z b
dx |f (x) g (x)|
re
2
rP
a

v !
b b b
uZ Z Z
2 2
u
=t dx |f (x)| 2 Re dx f (x) g (x) + dx |g (x)| .
a a a
o

Los teoremas del coseno puede ser escrito como


ad

Z b Z b Z b
2 2 2
dx |f (x) + g (x)| = dx |f (x)| + dx |g (x)|
a a a
! 21 ! 21
Z b Z b
2 2
+2 dx |f (x)| dx |g (x)| cos() ,
rr

a a

donde Rb
dx f (x) g (x)
Bo

a
cos() =  1  1 ,
Rb 2 2 Rb 2 2
a
dx |f (x)| a
dx |g (x)|
y como era de esperarse el teorema de Pitagoras queda
Z b Z b Z b
2 2 2
dx |f (x) + g (x)| = dx |f (x)| + dx |g (x)| ,
a a a

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 82
2.3. VARIEDADES LINEALES

para funciones f (x) y g (x) ortogonales, mientras que para este caso, la desigualdad de Cauchy-Schwarz
se expresa Z 2 Z
b b Z b
2 2
dx f (x) g (x) dx |f (x)| dx |g (x)| .


a a a

2.2.4. Ejercicios
1. Consideremos el espacio vectorial conformado por los vectores geometricos en R3 Seran espacios
euclideanos para las siguientes definiciones de producto interno?
a) El producto de las longitudes de los vectores.

ar
b) El producto de las longitudes por el cubo del coseno del angulo entre ellos.
c) El producto como dos veces el producto escalar usual entre vectores.
2. Encuentre los angulo formado por los vectores: |x1 i = 1, |x2 i = t, |x3 i = 1 t.
angulos en el tri

in
3. Sea E0 un subespacio euclideano de dimension k, E0 E, y sea |vi un vector que no necesariamente
es un elemento E0 . Podemos plantearnos el problema de representar |vi de la forma

lim
|vi = |gi + |hi
donde |gi E0 y |hi es ortogonal a E0 . La existencia de la expansion anterior nos muestra que el
on n, es la suma directa de los subespacios E0 y su complemento ortogonal
espacio total E, de dimensi

E de dimensi on n k.
Encuentre el vector |vi, como la suma del vector |gi, expandido por los vectores |gi i, y el vector
perpendicular |hi cuando:
re
a) |hi = (5, 2, 2, 2) , |g1 i = (2, 1, 1, 1) , |g2 i = (1, 1, 3, 0).
b) |hi = (3, 5, 9, 3) , |g1 i = (1, 1, 1, 1) , |g2 i = (2, 1, 1, 1) , |g3 i = (2, 7, 1, 1).
rP
2.3. Variedades lineales
2.3.1. Dependencia/Independencia lineal
o

Siguiendo la misma lnea de razonamiento que en las secciones 1.2 y 1.4.2, generalizamos el concepto de
dependencia e independencia lineal de R2 y R3 . As:
ad

n
X
|0i = C1 |v1 i + C2 |v2 i + C3 |v3 i + Cn |vn i = Ci |vi i ,
i=1

Las cantidades Ci son llamados los coeficientes de la combinacion lineal.


rr

Podemos afirmar que:


Si esta ecuaci un conjunto de {Ci } no nulos, se dira que el conjunto de vectores
on se cumple para alg
correspondiente {|vi i} son linealmente dependientes.
Bo

Por el contrario, si esta ecuaci


on s
olo puede ser satisfecha para todos los Ci = 0, entonces se dir
a que
el conjunto de vectores correspondiente {|vi i} son linealmente independientes.
Notemos que la suma que aparece aqu es necesariamente una suma finita, y cuando un determinado conjunto
de vectores es linealmente dependiente, entonces uno de ellos se puede escribir como combinacion lineal de
los dem
as.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 83
2.3. VARIEDADES LINEALES

Ejemplos dependencia/independencia lineal


1. Dados tres vectores en R4

1 2 1
3 0 1
|v1 i =
1 ;
|v2 i =
1 ;
|v3 i =
0 .

2 3 0
El criterio de independencia lineal se cumple si |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i y todos los {Ci } son
nulos, esto es
C1 +2C2 C3 = 0
3C1 +C3 = 0

ar
C1 +C2 = 0
2C1 +3C2 = 0
de donde es claro ver que la u nica solucion posible implica C1 = C2 = C3 = 0, es decir, el conjunto de

in
vectores: {|v1 i , |v2 i , |v3 i} son linealmente independientes.
2. Si consideramos el espacio vectorial V = {|v1 i , |v2 i , |v3 i , , |vn i} seran ejemplos de independen-
cia lineal:

lim
|vk i f (t) = tk para k = 1, 2, 3, Es claro que un polinomio de gradoPn + 1, no podr a ser
n
expresado en terminos un polinomio de grado n, en otras palabras, tn+1 6= i=0 Ci ti .
|vk i f (t) = eak t con a1 , a2 , a3 , coeficientes constantes. Tambien salta a la vista que no
podremos expresar una de esas funciones exponenciales como una combinacion lineal.

re
3. Si consideramos |v1 i = cos2 (t), |v2 i = sen2 (t) y |v3 i = 1, es claro que |v1 i , |v2 i , y |v3 i son linealmente
dependientes por cuanto |v1 i + |v2 i = |v3 i . Notese que si
|v1 i = cos(t), |v2 i = sen(t) y |v3 i = 1,
rP
entonces |v1 i , |v2 i , y |v3 i ser
an vectores linealmente independientes.
4. Consideremos ahora otro ejemplo en P 3 :
|x1 i = 1; |x2 i = x 1; |x3 i = x2 ; |x4 i = x2 + 2x + 1 .
Podemos ver que este conjunto es linealmente dependiente ya que siempre podremos expresar
o

|x4 i = 3|x1 i + 2|x2 i + |x3 i .


ad

Ejercicios
1. Considere un conjunto S conformado u nicamente por n umeros reales positivos. Consideremos las si-
guientes reglas sobre S: Por sumade dos n umeros entenderemos su producto en el sentido usual, y
rr

el productode un elemento r S y un n umero real entenderemos r elevado a la potencia de , en


el sentido usual. S es un espacio vectorial?
2. Considere el conjunto de vectores en el plano conformado por vectores localizados en el origen y cuyos
Bo

puntos finales permanecen siempre en el primer cuadrante. Este conjunto es un espacio vectorial?
3. Diga si los siguientes conjuntos de vectores en P 3 son o no linealmente independientes.
a) |x1 i = 2x; |x2 i = x2 + 1; |x3 i = x + 1; |x4 i = x2 1
b) |x1 i = x(x 1); |x2 i = x; |x3 i = x3 ; |x4 i = 2x3 x2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 84
2.3. VARIEDADES LINEALES

Practicando con Maxima:

En 2.3.1 vimos que si en la ecuaci


on

|0i = C1 |v1 i + C2 |v2 i + C3 |v3 i + Cn |vn i

todos los Ci = 0, entonces se dir


a que el conjunto de vectores son linealmente independientes. Para el primer
ejemplo de esa secci
on se obtuvo el siguiente sistema de ecuaciones:

C1 +2C2 C3 = 0
3C1 +C3 = 0

ar
C1 +C2 = 0
2C1 +3C2 = 0

que procedemos a resolver usando el comando linsolve:

in
(%i1) linsolve([C1+2*C2-C3=0, 3*C1+C3=0, -C1+C2=0, 2*C1+3*C2=0], [C1,C2,C3,C4]);
solve: dependent equations eliminated: (4)

lim
( %o1) [C1 = 0, C2 = 0, C3 = 0, C4 = %r1 ]

2.3.2. Bases de un espacio vectorial


Ahora bien, dado un espacio vectorial V = {|v1 i , |v2 i , |v3 i , |vn i}, si encontramos que el conjunto

de los dem as, vale decir re


de {|vn i} es linealmente dependiente, entonces siempre es posible despejar uno de los vectores en terminos

n1
rP
X
|vn i = C1 |v1 i + C2 |v2 i + C3 |v3 i + Cn1 |vn1 i = Ci |vi i .
i=1

Seguidamente podemos proceder a comprobar si {|v1 i , |v2 i , |v3 i , |vn1 i} es un conjunto de vectores
linealmente independientes, es decir: C1 = C2 = C3 = = Cn1 = 0. En caso de no serlo se procede otra
vez a despejar uno de los vectores en terminos de los anteriores y aplicar el criterio de independencia lineal:
o

n2
X
|vn1 i = C1 |v1 i + C2 |v2 i + C3 |v3 i + Cn2 |vn2 i = Ci |vi i ,
ad

i=1

se comprueba si se cumple
C1 = C2 = C3 = = Cn2 = 0 .
rr

En caso contrario, se repite este procedimiento hasta encontrar un conjunto {|v1 i , |v2 i , |v3 i , |vnj i} de
vectores linealmente independientes. Esto es:
Bo

C1 = C2 = C3 = = Cnj = 0 ,

y por lo tanto
nj
X
|vnj+1 i = C1 |v1 i + C2 |v2 i + C3 |v3 i + Cnj |vnj i = Ci |vi i .
i=1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 85
2.3. VARIEDADES LINEALES

Diremos entonces que {|v1 i , |v2 i , |v3 i , , |vnj i} forman una base para V.
La dimension de V ser umero de vectores linealmente independientes, que para este caso sera n j.
a el n
As se puede comprobar que, dado |xi V, entonces
nj
X
|xi = Ci |vi i |xi V ,
i=1

y el conjunto {C1 , C2 , C3 , Cnj } ser


aunico.
Diremos que el numero mnimo de vectores:

|v1 i , |v2 i , |v3 i , , |vnj i

ar
que expanden V conforman una base de ese espacio vectorial, y que el n
umero finito de cantidades

C1 , C2 , C3 , Cnj ,

in
constituyen las componentes de |xi relativas a la base {|v1 i , |v2 i , , |vnj i}.
Queda claro que el vector cero,|0i, es linealmente dependiente, y cualquier conjunto de vectores que lo
contenga es un conjunto linealmente dependiente de vectores.

lim
De lo anteriormente expuesto se puede concretar la siguiente definicion para una base de ese espacio V:
Un conjunto finito de vectores
B = {|v1 i , |v2 i , |v3 i , , |vn i} V,
se les denominar a base del espacio vectorial V si los |v1 i , |v2 i , |v3 i , , |vn i son linealmente independientes
y (obviamente) expanden V. Diremos entonces que B es un sistema generador de V.
Es f
re
acil darse cuenta que si V lo expanden n vectores linealmente independientes, cualquier otro vector
|xi V ser a linealmente dependiente. Igualmente, y facilmente demostrable, es que todas las bases de un
espacio vectorial V, de dimensi on finita, tendran el mismo n umero de elementos y ese n umero de elemento
rP
ser
a la dimensi on del espacio, es decir, la dimV = n umero n de vectores que forman una base de dicho
espacio.
Adicionalmente, puede ser que dentro de un espacio vectorial V se puedan encontrar subespacios y dentro
de esos subespacios un conjunto de vectores base.
Vale decir, si |xi V:
o

|xi = C1 |v1 i + Cnj |vnj i + Cnj+1 |vnj+1 i Cnk |vnk i + Cnk+1 |vnk+1 i Cn |vn i
| {z } | {z } | {z }
ad

S1 S2 S3

con
|xi = |x1 i + |x2 i + |x3 i y |x1 i S1 ; |x2 i S2 ; |x3 i S3 ,
entonces diremos que V es la suma directa de S1 , S2 y S3 y lo denotaremos como: V = S1 S2 S3 .
rr

Tambien es bueno senalar que, una vez fijada una base, las componentes de un vector seg un esa base,
son u
nicas y que dada una base de un espacio vectorial, se pueden construir otras bases diferentes de esta,
como veremos m as adelante.
Bo

2.3.3. El determinante de Gram


Existe una forma directa de comprobar la independencia lineal de un conjunto de vectores

{|v1 i , |v2 i , |v3 i , |vn i} V .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 86
2.3. VARIEDADES LINEALES

Dado un |xi V, entonces, y al multiplicar por hvi |, resulta:




C1 hv1 |v1 i + C2 hv1 |v2 i + C3 hv1 |v3 i + + Cn hv1 |vn i = hv1 |xi
X n
C1 hv2 |v1 i + C2 hv2 |v2 i + C3 hv2 |v3 i + + Cn hv2 |vn i = hv2 |xi
|xi = Ci |vi i .. ..
i=1


. .
C1 hvn |v1 i + C2 hvn |v2 i + C3 hvn |v3 i + + Cn hvn |vn i = hvn |xi

donde las C1 , C2 , C3 , Cn son las inc


ognitas, por lo cual, para que este sistema tenga solucion se impone
que
hv1 |v1 i hv1 |v2 i hv1 |v3 i hv1 |vn i

hv2 |v1 i hv2 |v2 i hv2 |v3 i hv2 |vn i

ar
6= 0

.. .. ..

. . .

hvn |v1 i hvn |v2 i hvn |v3 i hvn |vn i
9
Esto es, que el determinante de Gram distinto de cero implica que el conjunto de vectores: {|v1 i , |v2 i , |v3 i , |vn i}

in
es linealmente independiente. La inversa tambien es cierta.

Ejemplos de bases en espacios lineales

lim
1. El espacio vectorial Vn tendr a dimension n y una de las posibles bases {|v1 i , |v2 i , |v3 i , |vn i} ser
a
|v1 i = (1, 0, 0, , 0)
|v2 i = (0, 1, 0, , 0)
|v3 i = (0, 0, 1, , 0)
.. ..
.
|vnj i =
.
(0, 0, 0, , 1)
Esta base se conoce con el nombre de base canonica.
re
rP
2. 
El espacio de polinomios, P n , de grado g n tendra como una de las posibles bases al conjunto
2 3 n
1, t, t , t , , t , porque cualquier polinomio de grado n podra ser expresado como combinaci on

lineal de estos n+1 vectores. M a s a
u n, el espacio de todos los polinomios, P , tendr
a como una posible
base al conjunto de funciones 1, t, t2 , t3 , , tn . En este caso P sera infinito dimensional.

o

2.3.4. Ortogonalidad y bases ortogonales


En un espacio vectorial con producto interno, dos vectores |e1 i |e2 i seran ortogonales si su producto
ad

interno se anula
|e1 i |e2 i he2 |e1 i = 0 .
Se denomina un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i , |en i} si
rr


2 ij = 0 si i 6= j
hei |ej i = ij k|ej ik , i, j = 1, 2, 3, , n y con
ij = 1 si i = j
Bo

2
a conjunto ortonormal si k|ej ik = 1.
y se denominar
9 JORGEN PEDERSEN GRAM (1850-1916 Dinamarca) Matem atico danes, que alternaba su actividad de gerente de una
importante compana de seguros con las matem aticas (Probabilidad, Analisis Num erico y Teora de N
umeros). Es conocido
mayormente por el m etodo de ortogonalizaci
on, pero se presume que no fue el quien primero lo utiliz
o. Aparentemente fue
ideado por Laplace y utilizado tambi
en por Cauchy en 1836. Gram muri o arrollado por una bicicleta a la edad de 61 a
nos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 87
2.3. VARIEDADES LINEALES

Un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i , , |en i} V es linealmente independiente, m as


un, para el caso particular de un espacio euclidiano, {|e1 i , |e2 i , |e3 i , , |en i} conforman una base orto-
a
gonal para V. La demostraci on es sencilla, para un determinado espacio vectorial una combinacion lineal de
los {|e1 i , |e2 i , |e3 i , , |en i} se anula.
Pn Pn
he1 | [Pi=1 Ci |ei i] = 0 i=1 Ci 1i = 0 C1 = 0
n P n
he | [ C |e i] = 0 C = 0 C 2 =0

2 i i i 2i
n


Pni=1 Pni=1
he | [ C |e i] = 0 C = 0 C =0
X
Ci |ei i = |0i 3 i=1 i i i=1 i 3i 3
i=1

.
.. . .. .
.. .
..


Pn P n
hen | [ i=1 Ci |ei i] = 0 i=1 Ci ni = 0 Cn = 0

ar
con lo cual, queda claro que: {|e1 i , |e2 i , |e3 i , , |en i} son un conjunto de vectores linealmente indepen-
dientes.
Si la dimensi on de V es n (dim V = n) y tenemos n vectores linealmente independientes, entonces esos
n vectores {|e1 i , |e2 i , |e3 i , , |en i} forman una base ortogonal para V, y por lo tanto, las componentes

in
de un vector en esa base se pueden expresar de manera simple.
n
" n #
X X hej |xi hej |xi
|xi V |xi = Ci |ei i hej |xi = hej | Ci |ei i Cj =

lim
= 2
i=1 i=1
he j |e j i k|ej ik
2
En el caso de un conjunto ortonormal de vectores {|e1 i , |e2 i , |e3 i , |en i} Vn , con k|ej ik = 1, las
componentes de cualquier vector quedan determinadas de una forma todava mas simple y con consecuencias
mucho m as impactantes

2
k|ej ik = 1 Cj = hej |xi |xi =
n
X

i=1
re
Ci |ei i =
n
X

i=1
hei |xi |ei i
n
X

i=1
|ei i hei | |xi .
rP
| {z }
1

on de cierre10
Es bueno recalcar la relaci
n
X
|ei i hei | = 1 ,
i=1
o

con lo cual es trivial demostrar la f


ormula de Parseval
n
! n n
ad


X X X
|xi , |yi V hy |xi hy| |ei i hei | |xi = hy| ei i hei | xi = hy |ei i hx |ei i
i=1 i=1 i=1

para el caso de |xi |yi se llega la generalizacion del Teorema de Pitagoras


rr

n
X
2 2
hx |xi k|xik = |hx |ei i| .
i=1
Bo

10 La relaci on de cierre expresa una propiedad importante de los vectores base: si los |
ei i se multiplican por la derecha por
los h
ei |, el resultado, luego se sumar para todos los vectores, es el operador lineal unitario. Se dice tambien que el conjunto de
vectores {| ei i} forman un conjunto completo.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 88
2.3. VARIEDADES LINEALES

Ejemplos de bases ortogonales


1. Funciones trigonometricas:
Uno de los ejemplos m as emblem aticos es el caso de las funciones continuas, R 2 reales de variable real y

definidas en [0, 2], C[0,2] , con el producto interno definido por: hf | gi = 0 dx f (x) g (x), esto es, el
conjunto de funciones {|e1 i , |e2 i , |e3 i , , |en i } representadas por
|e0 i = 1, |e2n1 i = cos(nx) y |e2n i = sen(nx), con n = 1, 2, 3,
Es claro que {|e1 i , |e2 i , |e3 i , , |en i , } es un conjunto de funciones ortogonales por cuanto
R 2
R0 dx sen(nx) sen(mx) = 0

ar

2

0 si n 6
= m dx cos(nx) sen(mx) = 0


0




2 dx cos(nx) cos(mx) = 0
R

0



2 2

in
hen |em i = nm k|en ik
R



0
dx = 2 si n = m = 0



R
2 2
k|en ik si n = m dx cos2 (nx) = si n = m = 2k 1


0

lim







R 2 dx sen2 (nx) = si n = m = 2k

0

con k = 1, 2, 3, .
Podremos construir una base ortonormal de funciones: {|e1 i , |e2 i , |e3 i , , |en i , } de la forma

Dada una funci


1
|e0 i = ,
2 re
1
|e2n1 i = cos(nx)

y

on definida en el intervalo [0, 2], podremos expresarla en terminos


1
|e2n i = sen(nx).

de esta base como


rP
R 2


0
dx f (x) = C0 si i=0



X R 2
|f i = Ci |ei i Ci = hei |f i = 0
dx f (x) cos(nx) = C2n1 si i = 2n 1

i=1


R 2 dx f (x) sen(nx) = C

o

0 2n si i = 2n
donde los Ci son los coeficientes de Fourier.
ad

2. Polinomios de Legendre:
Otro de los ejemplos tpicos son los llamados polinomios de Legendre, Pn (x), definidos en el intervalo
[1, 1]. Estos polinomios pueden ser generados a partir de la Formula de Rodrigues11
rr

1 dn 2
Pn (x) = (x 1)n , n = 0, 1, 2, .....
n!2n dxn
Bo

con P0 (x) = 1. Algunos de estos polinomios son:


1 x 1
P1 (x) = x , P2 (x) = (3x2 1) , P3 (x) = (5x2 3) , P4 (x) = (35x4 30x2 + 3) , . . .
2 2 8
11 BENJAMIN OLINDE RODRIGUES (1794 Burdeos, Francia - 1851, Par s Francia) Banquero, matematico y activista
poltico socialista franc
es durante la Revoluci
on Francesa. De origen judo, y cuyas contribuciones fundamentales como la
f
ormula para la generaci on de Polinomios de Legendre, permanecieron olvidadas por mucho tiempo.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 89
2.3. VARIEDADES LINEALES

Como veremos m
as adelante, los polinomios de Legendre son solucion de la ecuacion diferencial

(1 x2 ) y 00 2x y 0 + ( + 1)y = 0 .

acil comprobar que los polinomios de Legendre |P i = P (x) son mutuamente ortogonales con un
Es f
producto interno definido como
Z 1
2
hPn |Pm i = Pn (x)Pm (x)dx = nm ,
1 2n +1

y con una norma definida por

ar
Z 1
2 2
kPn k = hPn |Pn i = Pn2 (x)dx = .
1 2n + 1

in
Por lo tanto, cualquier funci
on en el intervalo [1, 1] puede ser expresada en esa base.

X X hPk |F i
f (x) = |F i = ak |Pk i = |Pk i .
hPk |Pk i

lim
k=0 k=0

Si f (x) es un polinomio
m
X
X
X
f (x) = bn xn = ak |Pk i = an Pn (x)

los coeficientes an se determinan f


n=0

re
k=0 n=0

acilmente a traves de un sistema de ecuaciones algebraicas. Por


ejemplo, para el caso de f (x) = x2 tendremos
rP
f (x) = x2 = a0 P0 (x) + a1 P1 (x) + a2 P2 (x)
1
= a0 + a1 x + a2 (3x2 1)
2
1 2
= P0 (x) + P2 (x) .
3 3
o
ad

Practicando con Maxima:

En este ejercicio aprenderemos a calcular una base a partir de un conjunto de vectores perteneciente a
un determinado espacio vectorial. Por ejemplo, si en R5 tenemos el siguiente conjunto de vectores:
rr

|v1 i = (1, 2, 3, 4, 5) , |v2 i = (0, 1, 1, 2, 3) , |v3 i = (3, 2, 1, 0, 1) , |v4 i = (4, 3, 2, 1, 0) .


Bo

(%i1) v1:[1,2,3,4,5]; v2:[0,-1,1,2,3]; v3:[3,2,1,0,-1]; v4:[-4,-3,-2,-1,0];


( %o1) [1, 2, 3, 4, 5]
( %o2) [0, 1, 1, 2, 3]
( %o3) [3, 2, 1, 0, 1]
( %o4) [4, 3, 2, 1, 0]

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 90
2.3. VARIEDADES LINEALES

Con los vectores dados construimos la siguiente matriz


(%i5) M:matrix(v1,v2,v3,v4);

1 2 3 4 5
0 1 1 2 3
( %o5)
3 2 1 0 1
4 3 2 1 0
Como veremos mas adelante, el Rango de una matriz indica el n
umero maximo de vectores fila o columna
linealmente independientes.
(%i6) rank(M);

ar
( %o6) 3

Podemos aplicar el metodo de eliminacion gaussiana a la matriz M para obtener una nueva matriz

in
escalonada. El c
alculo adem
as se hace normalizando el primer elemento no nulo de cada fila. Esto se logra
con el comando echelon(M).
(%i7) echelon(M);

lim
1 23 1
31

3 0
0 1 1 2 3
( %o7) 0 0 1 5 7

3 3
0 0 0 0 0

re
Por lo tanto, cada fila de la matriz anterior conformara un conjunto de vectores linealmente independiente.
Los podemos aislar de la matriz con el comando row(M,i), que devolvera la i-esima fila de la matriz M.
(%i8) e1:row(%o7,1);
rP
2 1
13

( %o8) 1 3 3 0
(%i9) e2:row(%o7,2);

( %o9) 0 1 1 2 3
o

(%i10)e3:row(%o7,3);
ad

( %o10) 0 0 1 53 73


Es trivial ver que e1, e2 y e3 son linealmente independientes.


rr

2.3.5. Ortogonalizaci
on
Hemos visto que un conjunto de vectores ortogonales forman una base para un espacio vectorial. Ahora
Bo

bien, siempre es posible construir un conjunto de vectores ortogonales a partir de un conjunto de vectores
linealmente independientes. Es metodo de ortogonalizacion se conoce como el metodo de Gram-Schmidt12 ,
12 ERHARD SCHMIDT (1876, Estonia - 1959 Alemania). Matem atico alem
an fundador del primer instituto de matem aticas
aplicadas de Berln. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en el campo de Ecuaciones Integrales y Teora
de Funciones en el Espacio de Hilbert.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 91
2.3. VARIEDADES LINEALES

en honor de estos dos matem aticos alemanes que NO lo inventaron pero hicieron famoso al metodo que, al
parecer, se le debe al matem
atico frances P.S. Laplace.
Consideremos, por ejemplo, un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , , |vn i}
que expanden un espacio euclidiano real de dimension finita, E n . Entonces siempre se puede construir un
conjunto ortogonal de vectores, {|e1 i , |e2 i , |e3 i , , |en i} que tambien expandan E n de la siguiente forma:

|e1 i |v1 i

hv2 |e1 i
|e2 i |v2 i he1 |e1 i |e1 i \ he2 |e1 i = 0

hv3 |e2 i hv3 |e1 i he3 |e1 i = 0
|e3 i |v3 i |e2 i |e1 i \

ar
he2 |e2 i he1 |e1 i he3 |e2 i = 0

he4 |e1 i = 0
hv4 |e3 i hv4 |e2 i hv4 |e1 i
|e4 i |v4 i |e3 i |e2 i |e1 i \ he4 |e2 i = 0

in
he3 |e3 i he2 |e2 i he1 |e1 i
he4 |e3 i = 0

.. ..
. .
he4 |e1 i = 0

lim


he4 |e2 i = 0




|en i |vn i
Pn1 hvn |ei i
|ei i \ he4 |e3 i = 0
i=1 hei |ei i
..
.




he4 |en1 i = 0

independientes y una definici


definici
re
As, siempre es posible construir una base ortonormal a partir de un conjunto de vectores linealmente
on de producto interno. Esta base ortogonal sera u nica en E n -para cada
on de producto interno- y si existe otra sus vectores seran proporcionales. Mas a
un, cada espacio
rP
vectorial Vn de dimensi a una base ortogonal asociada13 .
on finita tendr

Ejemplos de ortogonalizaci
on
1. Un subespacio de V4 , expandido por los siguientes vectores
o


1 2 1
3 0 1
1 ; |v2 i = 1 ; |v3 i = 0 ,
|v1 i =
ad

2 3 0
13 Hemos construido la base ortogonal para un espacio de dimensi
on finita, pero es procedimiento es v
alido para espacios de
dimensi
on infinita
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 92
2.3. VARIEDADES LINEALES

tendr a una base ortogonal asociada dada por



1 2 1 1
1 hv2 |e1 i 0 1 1
0 ; |e2 i |v2 i he1 |e1 i |e1 i =
|e1 i |v3 i = (1)
0 = 1

1
0 3 0 3

5

4

1   1 1 5



hv1 |e2 i hv1 |e1 i 3
9
1 1 4
|e3 i |v1 i |e2 i |e1 i = (1) =

ar
he2 |e2 i he1 |e1 i 1 12 1 0 7



2 3 0 4

14

in
y la base ortonormal asociada ser
a

1

lim

1 1
1


|e1 i 1 ; |e2 i = p |e2 i
2 3 1
|e3 i 1
|e1 i = p = = ; |
e3 i = =
he1 |e1 i 2 0 he2 |e2 i 6 1 he3 |e3 i 2
7


0 3 5

15

re
2. Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente independientes,
rP
   
1 0
|v1 i = ; |v2 i = ;
1 1

elegimos |e1 i |v2 i entonces, |e2 i vendra dado por


     
hv1 |e1 i 1 0 1
|e2 i |v1 i |e1 i |e2 i =
o

he1 |e1 i 1 1 0
ad

tal y como se esperaba, el otro vector ortogonal es el canonico.


3. Consideramos el espacio de polinomios, P n , de grado g n definidos en el intervalo [1, 1]. Este
a como una de las posibles bases al conjunto {|Pi i} = 1, t, t2 , t3 , , tn con el
espacio vectorial tendr
producto interno definido por14
rr

Z 1
hPi | Pj i = dt Pi (t)Pj (t)
1
Bo

Procederemos a construir una base ortogonal {|i i}, y tomaremos como vector de inicio:

|0 i |P0 i = 1 ,
14 En este punto es importante senalar la importancia de la definici on de producto interno. Si esta definici on hubiera sido
R1 R1 f (x) g(x)
hf | gi = 1 dx f (x) g(x) 1 x2 o hf | gi = 1 dx 2
las bases correspondientes a estas definiciones de producto interno
1x
hubieran sido distintas.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 93
2.3. VARIEDADES LINEALES

El siguiente vector ser


a:
R1
hP1 |0 i hP1 |0 i = 1 dt t = 0

|1 i |P1 i |0 i = t
h0 |0 i h | i = R 1 dt = 2

0 0 1

El siguiente:
R1

hP2 |0 i = 1 dt t2 = 23



hP2 |1 i hP2 |0 i 2 1 R1
|2 i |P2 i |1 i |0 i = t hP2 |1 i = 1 dt t3 = 0
h1 |1 i h0 |0 i 3

ar



R1
h1 |1 i = 1 dt t2 = 32

in
Para el cuarto
hP3 |2 i hP3 |1 i hP3 |0 i
|3 i |P3 i |2 i |1 i |0 i
h2 |2 i h1 |1 i h0 |0 i

lim
R1

hP3 |0 i = 1 dt t3 = 0



R1
hP3 |1 i = 1 dt t4 = 25



3
= t3 t
5 R1
hP3 |2 i = 1 dt t3 [t2 13 ] = 0









re R1
h2 |2 i = 1 dt [t2 31 ]2 = 458
rP
Queda como ejercicio comprobar la ortogonalidad de los vectores recien calculados:

h0 |1 i = h1 |2 i = h2 |3 i = = 0

Podemos resumir los c


alculos anteriores como se muestra a continuacion:
o

|Pn i |n i |
n i
1 1 1
ad

q2
3
t t 2 t
q
1 1 5

t2 t2 3 2q 2 3t2 1
t3 35 t 1 7

t3 5t3 3t
rr

q2 2

t4 76 t2 + 3 3 1

t4 35 8 2 35t4 30t2 + 3
.. .. ..
Bo

. . .

Practicando con Maxima:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 94
2.3. VARIEDADES LINEALES

Anteriormente hicimos los c alculos para hallar una base ortogonal a partir del siguiente conjunto de
vectores linealmente independientes:

1 2 1
3 0 1
|v1 i =
1
;
|v2 i =
1 ;
|v3 i =
0 ,

2 3 0

La funci on gramschmidt(x) es la que ejecuta el algoritmo de ortogonalizacion de Gram-Schmidt sobre


el objeto x. Si x es una matriz el algoritmo act
ua sobre sus filas. Antes de usar la funcion es necesario cargar
la librera eigen.

ar
(%i1) load ("eigen")$

(%i2) v: matrix ([-1, 1, 0, 0], [2, 0, 1,3], [1,3, -1,2]);

in

1 1 0 0
( %o2) 2 0 1 3
1 3 1 2

lim
Notemos que el vector |v3 i es el que hemos puesto en la primera fila de la matriz. Ahora procedemos al
c
alculo:
(%i3) e: gramschmidt (v);
  
5 5 7 1
( %o3) [1, 1, 0, 0] , [1, 1, 1, 3] , 2 , 2 , 2 , 2
2 2 2 2
re
El resultado viene en forma de una lista: [e[1], e[2], e[3]]. Simplificando resulta:
(%i4) e:expand(%);
rP
  
5 5 7 1
( %o4) [1, 1, 0, 0] , [1, 1, 1, 3] , , , ,
4 4 4 4
Podemos verificar que son ortogonales:
(%i5) map (innerproduct, [e[1], e[2], e[3]], [e[2], e[3], e[1]]);
o

( %o5) [0, 0, 0]
Normalizamos ahora cada uno de los vectores
ad

(%i6) e[1]/sqrt(innerproduct(e[1],e[1]));
 
1 1
( %o6) , , 0, 0
rr

2 2
(%i7) e[2]/sqrt(innerproduct(e[2],e[2]));
" #
1 1 1 3
Bo

( %o7) , , ,
2 3 2 3 2 3 2
(%i8) e[3]/sqrt(innerproduct(e[3],e[3]));
 
1 1 7 1
( %o8) , , ,
2 2 10 10

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 95
2.3. VARIEDADES LINEALES

La funci on gramschmidt(x,F) nos permite definir un producto interno diferente a innerproduct. Vea-
mos como
 se hace para el otro ejemplo donde el conjunto de vectores linealmente independientes estaba dado
por: 1, t, t2 , t3 , , tn
(%i9) producto(f,g):=integrate(f*g, t, a, b);
Z b
( %o9) producto(f,g) := f g dt
a
(%i10)e:gramschmidt ([1, t, t^2,t^3,t^4], producto), a= -1, b=1;
"  #
3 t2 1 t 5 t2 3 35 t4 30 t2 + 3
( %o10) 1, t, , ,
3 5 35

ar
(%i11)e:expand(e);

6 t2
 
1 3t 3
( %o11) 1, t, t2 , t3 , t4 +

in
3 5 7 35
(%i12)map(producto, [e[1], e[2], e[3]], [e[2], e[3], e[1]]), a= -1, b=1;

( %o12) [0, 0, 0]

lim
Para normalizar hacemos lo siguiente:
(%i13)a: -1$ b:1$
(%i14)e[1]/sqrt(producto(e[1], e[1]));
1
( %o14)
2
(%i15)e[2]/sqrt(producto(e[2], e[2]));

re
rP
3t
( %o15)
2
(%i16)e[3]/sqrt(producto(e[3], e[3]));

3 5 t2 13

( %o16)
o

3
22
(%i17)e[4]/sqrt(producto(e[4], e[4]));
ad


5 7 t3 35t

( %o17) 3
22
rr

2.3.6. Complementos ortogonales y descomposici


on ortogonal
Sea un subespacio S V, un elemento | vi i V se dice ortogonal a S si hsk | vi i = 0 |sk i S,
Bo

es decir, es ortogonal a todos los elementos de S . El conjunto {| v1 i , |


v2 i , | v3 i , , |
vm i} de todos los
elementos ortogonales a S, se denomina Sperpendicular y se denota como S . Es facil demostrar que S
es un subespacio, a
un si S no lo es.
Dado un espacio euclidiano de dimension infinita V : {|v1 i , |v2 i , |v3 i , , |vn i , } y un subespacio
de V con dimensi on finita, S V y dim S = m. Entonces |vk i V puede expresarse como la suma de

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 96
2.3. VARIEDADES LINEALES


dos vectores |sk i S |sk i S . Esto es

|vk i = |sk i + |sk i , |sk i S |sk i S .

M un, la norma de |vk i se calcula a traves del teorema de Pitagoras generalizado


as a
2
2 2
k|vk ik = k|sk ik + |sk i .


La demostraci on es sencilla. Primero se prueba que la descomposicion ortogonal |vk i = |sk i+|sk i es siempre
posible. Para ello recordamos que S V es de dimension finita, por lo tanto existe una base ortonormal

{|e1 i , |e2 i , |e3 i |em i} para S. Es decir, dado un |vk i definimos los elementos |sk i y |sk i como siguen

ar
m

X
|sk i = hvk |ei i |ei i |sk i = |vk i |sk i
i=1

in
otese que hvk |ei i |ei i es la proyecci
N on de |vk i a lo largo de |ei i y |sk i se expresa como la combinacion lineal
de la base de S, por lo tanto, est a en S. Por otro lado

lim
m

X

hsk |ei i = hvk sk |ei i = hvk |ei i hsk |ei i = hvk |ei i hvk |ej i hej | |ei i = 0 |sk i |ej i
j=1


lo cual indica que |sk i S .

Podemos ir un poco m a. La descomposicion |vk i = |sk i + |sk i es u
as all nica en V. Para ello suponemos
que existen dos posibles descomposiciones, vale decir

|vk i = |sk i + |sk i |vk i = |tk i + |tk i

,
re
con |sk i |tk i S |sk i

|tk i S .
rP
Por lo tanto
   

|vk i |vk i = |sk i + |sk i |tk i + |tk i = 0 |sk i |tk i = |tk i |sk i .


Pero |sk i |tk i S, es decir, ortogonal a todos los elementos de S y |sk i |tk i = |tk i |sk i , con lo cual
|sk i |tk i |0i que es el u
nico elemento que es ortogonal a el mismo y en consecuencia la descomposici on
o


|vk i = |sk i + |sk i es unica.
Finalmente, con la definici on de norma
ad

2    2
2 2
k|vk ik = |sk i + |sk i = hsk | + hsk | |sk i + |sk i = hsk |sk i + hsk |sk i = k|sk ik + |sk i .

As, dado Sm un subespacio de V de dimension finita y dado un |vk i V el elemento


rr

m
X
|sk i S |sk i = hvk |ei i |ei i ,
Bo

i=1

ser on de |vk i en S.
a la proyecci
En general, dado un vector |xi V y un subespacio de V con dimension finita, Sm V y dim S = m,
entonces la distancia de |xi a Sm es la norma de la componente de |xi , perpendicular a Sm , y mas a
un esa
on d |xi, en Sm sera el elemento de Sm mas proximo a |xi y, por
a mnima y |xiSm la proyecci
distancia ser
la mejor aproximaci on.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 97
2.3. VARIEDADES LINEALES

2.3.7. Ejercicios
Sea Pn el conjunto de todos los polinomios de grado n, en x, con coeficientes reales:
n1
X
|pn i
p(x) = a0 + a1 x + a2 x2 + ... + an1 xn1 = ai xi
i=0

1. Demostrar que Pn es un espacio vectorial respecto a la suma de polinomios y a la multiplicaci


on de
polinomios por un escalar (n
umero real).

2. Si los coeficientes ai son enteros Pn sera un espacio vectorial? Por que?

ar
al de los siguientes subconjuntos de Pn es un subespacio vectorial?
3. Cu

a) El polinomio cero y todos los polinomios de grado n 1.


b) El polinomio cero y todos los polinomios de grado par.

in
c) Todos los polinomios que tienen a x como un factor (grado n > 1).
d ) Todos los polinomios que tienen a x 1 como un factor.

lim
4. Un subespacio P es generado por: |x1i = x3 + 2x + 1; |x2i = x2 2; |x3i = x3 + x;

a) x2 2x + 1
b) x4 + 1
c) 21 x3 + 52 x2 x 1
d) x 5 re
al(es) de los polinomios dados pertenece al subespacio P?
Cu
rP
5. Probar que los polinomios
3 2 1 5 3 3
|x1i = 1; |x2i = x; |x3i = x ; |x4i = x x;
2 2 2 2
forman una base en P4 . Expresar |pi = x2 ; |qi = x3 en funcion de esa base.
o

Pn1 Pn1
6. Sean |pn i = p(x)= i=0 ai xi , |qn i = q(x) = i=0 bi xi Pn . Considerese la siguiente definicion:
ad

n1
X
hqn |pn i
a0 b0 + a1 b1 + a2 b2 + ... + an1 bn1 = ai bi
i=0
rr

a) Muestre que esta es una buena definicion de producto interno.


on de producto interior Se puede considerar Pn un subespacio de C[a,b] ? Por
b) Con esta definici
que?
Bo

7. Considerando estas definiciones de producto interior en Pn


R1
a) hqn |pn i = 1 p(x)q(x)dx
R1
b) hqn |pn i = 0 p(x)q(x)dx

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 98
DE FUNCIONES
2.4. APROXIMACION

angulo entre los siguientes pares de vectores en P3


Encontrar la distancia y el

a) |x1i = 1; |x2i = x
b) |x1i = 2x; |x2i = x2

8. Encontrar la proyecci on perpendicular de los siguientes vectores en C[1,1] (espacio de funciones conti-
nuas en el intervalo [-1,1]) al subespacio generado por los polinomios: 1, x, x2 1. Calcular la distancia
de cada una de estas funciones al subespacio mencionado.

a) f (x) = xn ; n entero
b) f (x) = sen(x)

ar
c) f (x) = 3x2

2.4. Aproximaci
on de funciones

in
2.4.1. Condiciones para la aproximaci
on de funciones
Sea {|v1 i , |v2 i , |v3 i , , |vn i , } un espacio euclidiano de dimension infinita, V, y un subespacio

lim
Sm V, con dimensi on finita dim S = m, y sea un elemento |vi i V. La proyeccion de |vi i en Sm , |si i ,
m
ser
a el elemento de S m as pr oximo a |vk i. En otras palabras

k|vi i |si ik k|vi i |ti ik |ti i S .

La demostraci
on se sigue as

re 2 2
|vi i |ti i = (|vi i |si i) + (|si i |ti i) k|vi i |ti ik = k|vi i |si ik + k|si i |ti ik ,

ya que |vi i |si i = |sk i S |si i |t i i S, y vale el teorema de Pitagoras generalizado.
2
rP
Ahora bien, como
2 2 2
k|si i |ti ik 0 k|vi i |ti ik k|vi i |si ik k|vi i |ti ik k|vi i |si ik .

Desarrollemos la aproximaci on de funciones continuas, reales de variable real, definidas en [0, 2], C[0,2] ,
R 2
mediante funciones trigonometricas y con el producto interno definido por: hf | gi = 0 dx f (x) g (x).
o

Hemos visto que para este espacio vectorial tenemos una base ortogonal definida por
ad

|e0 i = 1, |e2n1 i = cos(nx) y |e2n i = sen(nx), con n = 1, 2, 3,

Por lo tanto, cualquier funci


on definida en el intervalo [0, 2] puede expresarse en terminos de esta base
como mostramos a continuaci on

rr

X
|f i = Ci |ei i ,
i=1
Los Ci son los coeficientes de Fourier. Es decir, cualquier funcion puede ser expresada como una serie de
Bo

Fourier de la forma

1 X
f (x) = a0 + [ak cos(kx) + bk sen(kx)] ,
2
k=1
donde Z 2 Z 2
1 1
ak = dx f (x) cos(kx) bk = dx f (x) sen(kx) .
0 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 99
DE FUNCIONES
2.4. APROXIMACION

Es claro que para la aproximaci on de funciones por funciones trigonometricas cuyos coeficientes son los

coeficientes de Fourier constituyen la mejor aproximacion. Por lo tanto, de todas las funciones F (x) C[0,2]
las funciones trigonometricas, T (x) minimizan la desviacion cuadratica media
Z 2 Z 2
2 2
dx (f (x) P (x)) dx (f (x) T (x)) .
0 0

Ejemplo Un ejemplo sencillo para aprender el mecansmo del calculo de los coeficientes lo podemos hacer
para la siguiente funci
on.
f (x) = x2 , x
Los coeficientes ser
an:

ar
1 2 2 2
4(1)n
Z Z
1 4 cos(n)
a0 = x dx = , an = x2 cos(nx)dx = = , bn = 0 n.
3 n2 n2

in
Se puede verificar que si f (x) es par (f (x) = f (x)) solo la parte que contiene cos(nx) contribuir
a a la
serie. Si f (x) es impar (f (x) = f (x)), lo hara solo la parte que contiene sen(nx). Por lo tanto:

lim

2 X (1)n 2 4 1
f (x) = x2 = +4 2
cos(nx) = 4 cos (x) + cos (2 x) cos (3 x) + cos (4 x)
3 n=1
n 3 9 4

Practicando con Maxima:

una funci
on f (x) en el intervalo [l, l]: fourier (f, x, l)
(%i1) load(fourie)$
re
Existe una librera llamada fourie en Maxima y una funcion que permite calcular series de Fourier de
rP
En nuestro caso f (x) = x2 . Al ejecutar el comando para calcular la serie se mostraran unas salidas
temporales y finalmente una lista con el resultado de los coeficientes.
(%i2) fourier(x^2,x,%pi);
o

2
( %t2) a0 =
3 2
ad


2 sin( n)
n 2 sin( n)
n3 + 2 cos( n)
n2
( %t3) an =

( %t4) bn = 0
( %o4) [ %t2 , %t3 , %t4 ]
rr

Se puede simplificar
(%i5) foursimp(%);
Bo

2
( %t5) a0 =
3 n
4 (1)
( %t6) an =
n2
( %t7) bn = 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 100
DE FUNCIONES
2.4. APROXIMACION

( %o7) [ %t5 , %t6 , %t7 ]

Podemos evaluar la lista de los coeficiente hasta el termino k. Aqu lo haremos hasta k = 4 y el resultado
lo llamaremos F .
(%i8) F:fourexpand(%o7,x,%pi,4);

cos (4 x) 4 cos (3 x) 2
( %t8) + cos (2 x) 4 cos x +
4 9 3
En un mismo gr
afico comparamos la funcion original y los primeros 5 terminos de la serie.
(%i9) wxplot2d([F,x^2], [x,-%pi,%pi],[legend, "F", "x^2"])$

ar
( %o9)

in
lim
re
o rP
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 101
DE FUNCIONES
2.4. APROXIMACION

2.4.2. El m
etodo de mnimos cuadrados
Una de las aplicaciones m as importantes en la aproximacion de funciones es el metodo de mnimos cua-
drados. La idea es determinar el valor m as aproximado de una cantidad fsica, c, a partir de un conjunto
de medidas experimentales: {x1 , x2 , x3 , , xn }. Para ello asociamos ese conjunto de medidas con las com-
ponentes de un vector |xi (x1 , x2 , x3 , , xn ) en Rn y supondremos que su mejor aproximacion, que
llamaremos c |1i (c, c, c, , c), ser
a la proyeccion perpendicular de |xi (las medidas) sobre el subespacio
generado por |1i. Esto es
hx |1i x1 + x2 + x3 , + xn

ar
|xi = c |1i c= = ,
h1 |1i n
que no es otra cosa que construir -de una manera sofisticada- el promedio aritmetico de las medidas. Es claro
on perpendicular de |xi sobre |1i hace mnima la distancia entre el subespacio perpendicular
que la proyecci

in
generado por |1i y el vector |xi y con ello tambien hara mnimo su cuadrado:
n
X
2 2 2
[d (|xi , c |1i)] = k|x cik = hx c |x ci = (xi c) .

lim
i=1

Esta manera sofisticada, que se deriva del formalismo utilizado, muestra el significado del promedio aritmeti-
co como medida m as cercana al valor real de una cantidad obtenida a partir de una serie de medidas
experimentales.
Obviamente, este problema se puede generalizar para el caso de dos (o n) cantidades si extendemos la
dimensi
re
on del espacio y los resultados experimentales se expresaran como un vector de 2n dimensiones

|xi = (x11 , x12 , x13 , x1n , x21 , x22 , x23 , x2n ) ,


rP
mientras que los vectores que representan las cantidades mas aproximadas seran

c1 |11 i = c1 ,c1 ,c1 , , c1 , 0, 0, 0, 0 c2 |12 i = (0, 0, 0, , 0, c2 , c2 c2 , c2 ) .


| {z }| {z }
n n
o

Ahora {|11 i , |12 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyeccion ortogonal
c1 |11 i +c2 |12 i y consecuentemente |xc1 11 c2 12 i sera perpendicular a {|11 i , |12 i}, por lo tanto
ad

hx |11 i x11 + x12 + x13 , + x1n hx |12 i x21 + x22 + x23 , + x2n
c1 = = c2 = = .
h11 |11 i n h12 |12 i n
Quiza la consecuencia mas conocida de esta forma de aproximar funciones es el ajuste de un conjunto
rr

de datos experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , , (xn , yn )} a la ecuacion de una recta y = cx15 . En
este caso, el planteamiento del problema se reduce a encontrar el vector c|xi, en el subespacio S (|xi), que
este lo mas cercano posible al vector |yi.
Bo

Como en el caso anterior, queremos que la distancia entre |yi y su valor mas aproximado c |xi sea la
2
menor posible. Por lo tanto, k|cx yik sera la menor posible y |cx yi sera perpendicular a S (|xi), por lo
que
hx |yi x1 y1 + x2 y2 + x3 y3 + + xn yn
hx |cx yi = 0 c = = .
hx |xi x21 + x22 + x23 + + x2n
15 Es inmediato generalizar el m
etodo a un ajuste y = cx + b y queda como ejercicio para el lector

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 102
DE FUNCIONES
2.4. APROXIMACION

Si la recta a ajustar es y = cx + b el procedimiento sera uno equivalente: proyectar sobre los vectores
y obtener ecuaciones. Si representamos |bi = b |1i, tendremos,
Pn Pn Pn
hx |yi = c hx |xi + hx |bi i=1 xi yi = c i=1 x2i + b i=1 xi
|yi = c |xi + |bi Pn Pn (2.1)
hb |yi = c hb |xi + hb |bi i=1 yi = c i=1 xi + bn

Que no es otra cosa que un sistema de dos ecuaciones con dos incognitas: c y b. Por simplicidad y conveniencia
continuaremos con el an alisis del caso b = 0, vale decir aproximando las medidas experimentales a una recta
que pase por el origen de coordenadas y = cx. El lector podra extender el procedimiento para caso b 6= 0.
Para tratar de entender (y extender) lo antes expuesto, consideremos tres ejemplos que muestran la
versatilidad del metodo y la ventaja de disponer de una clara notacion. Primeramente, mostraremos el caso

ar
mas utilizado para construir el mejor ajuste lineal a un conjunto de datos experimentales. Buscaremos la
mejor recta que describe ese conjunto de puntos. Luego mostraremos la aplicacion del metodo para buscar
la mejor funcion multilineal, vale decir que ajustaremos la mejor funcion de n variables con una contribuci on
lineal de sus argumentos: y = y(x1 , x2 , , xn ) = c1 x1 +c2 x2 + +cn xn . Este caso tendra una complicaci
on

in
adicional, por cuando realizaremos varias mediciones de las variables. Finalmente, mostraremos como se
puede utilizar el metodo de mnimos cuadrados para ajustar un conjunto de datos experimentales a un
polinomio de cualquier grado. Veamos los tres casos:

lim
1. El caso m
as simple sera el conjunto de datos experimentales (x1 , y1 ), (x2 , y2 ), , (xn , yn ), y nos pre-
guntamos Cu al ser
a la recta, y = cx, que ajusta mas acertadamente a estos puntos. Es inmediato
darnos cuenta que la pendiente de esa recta sera:
hx |yi
|yi = c |xi c= .
hx |xi

2

1
re
Consideremos los puntos experimentales: {(1, 2) , (3, 2) , (4, 5) , (6, 6)}, entondes

rP
2 3 hx |yi 2 + 6 + 20 + 36 32
|yi = c |xi 5 = c 4 c = hx |xi = 1 + 9 + 16 + 36 = 31 = 1,03226 .

6 6
Cu al sera el ajuste para el caso de una recta y = cx + b? Queda como ejercicio para el lector utilizar
el esquema descrito en las ecuaciones (2.1) y encontrar los parametros c y b para este nuevo ajuste.
o

2. El segundo caso que consideraremos sera la generalizacion a una contribucion lineal de varios par ame-
tros, i.e. un ajuste multilineal a la mejor funcion, y = y(x1 , x2 , , xm ) = c1 x1 + c2 x2 + + cm xm .
ad

El procedimiento anterior puede generalizarse de forma casi inmediada



hx1 |yi = c1 hx1 |x1 i + c2 hx1 |x2 i + + cm hx1 |xj i

Xm hx2 |yi = c1 hx2 |x1 i + c2 hx2 |x2 i + + cm hx2 |xj i

|yi = cj |xj i .. .. (2.2)
rr

j=1


. .
hxm |yi = c1 hxm |x1 i + c2 hxm |x2 i + + cm hxm |xj i .

Es decir, un sistema de m ecuaciones con m incognitas que corresponden a los pesos, c1 , c2 , , cm .,


Bo

de las contribuciones a la funci


on multilineal.
Supongamos ahora un paso m as en este afan generalizador y consideremos que ejecutamos n experi-
mentos con n > m. De esta forma nuestro problema adquiere un grado mayor de riqueza y las medidas
experimentales estar
an representadas
(y1 , x11 , x12 , x1m ; y2 , x21 , x22 , x2m ; y3 , x31 , x32 , x3m ; yn , xn1 , xn2 , xn3 , xnm )

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 103
DE FUNCIONES
2.4. APROXIMACION

por lo tanto, podremos construir m vectores

|
x1 i = (x11 , , x1n ) ; |
x2 i = (x21 , , x2n ) ; |
xm i = (xm1 , , xmn ) ; |yi = (ym1 , , yn ) ,

y el conjunto {|x1 i , |
x2 i , |
xm i} expande el subespacio S (|
x1 i , |
x2 i , |
xm i) que alberga la aproxi-
macion de |yi . Otra vez, la distancia de este subespacio al vector |yi, sera mnima y por lo tanto ser a
la mejor aproximaci on:
2
[d (S (ci |
xi i) , |yi)] = hS (ci |
xi i) y |S (ci |
xi i) yi

y |S (ci |
xi) yi ser
a ortogonal a los |
xi i:
m +
X

ar
h
xj |S (ci |
xi) yi h
xi ci |
xi y = 0 i, j = 1, 2, 3, m


i=1

Finalmente, el problema queda refraseado de la misma manera que en el caso multilineal (2.2):

in


h
x1 |yi = c1 h
x1 |
x1 i + c2 h
x1 |
x2 i + + cm h
x1 |
xj i
Xm h

x2 |yi = c1 h
x2 |
x1 i + c2 h
x2 |
x2 i + + cm h
x2 |
xj i
|yi = cj |
xj i .. .. (2.3)

lim
j=1


. .
h
xm |yi = c1 hxm |x1 i + c2 h
xm |x2 i + + cm h
xm |
xj i .

Ejemplo Se sospecha que una determinada propiedad de un material cumple con la ecuacion y =
ax1 + bx2 y realizamos 4 mediciones independientes. Si al realizar un conjunto de medidas experimen-
tales obtenemos

y1

15

y2

12

y3 re

10
x11 = 1 ; x21 = 2 ; x31 = 1 ; x41 = 1

y4

1
0

rP
x12 2 x22 1 x32 1 x42
Es claro que tenemos un subespacio de m = 2 dimensiones, que hemos hecho n = 4 veces el experimento
y que los vectores considerados arriba seran

|x1 i = (1, 2, 1, 1) ; |x2 i = (2, 1, 1, 1) ; |yi = (15, 12, 10, 0)


o

por lo tanto, vectorialmente |yi = a |x1 i + b |x2 i, es decir las ecuaciones normales (2.3) se escriben
45

ad

 a = 11
7a +4b = 49

11y = 45x1 + 56x2
4a +7b = 52
b = 56

11

3. Se puede extender el razonamiento anterior y generar un ajuste lineal no lineal. Esto es: el ajuste
rr

lineal es en los coeficientes, pero la funcionalidad de la ley a la cual queremos ajustar los datos puede
ser un polinomio de cualquier orden. Ese es el caso de una parabola que ajusta al siguiente conjunto
de puntos
Bo

{(0, 1) , (1, 3) , (2, 7) , (3, 15)} y = ax2 + bx + c


Las ecuaciones toman la forma de
1= 0 +0 +c
3= a +b +c
7 = 4a +2b +c
15 = 9a +3b +c

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 104
DE FUNCIONES
2.4. APROXIMACION

y los vectores construidos a partir de los datos experimentales seran

|x1 i = (0, 1, 4, 9) ; |x2 i = (0, 1, 2, 3) ; |x3 i = (1, 1, 1, 1) ; |yi = (1, 3, 7, 15) .

Una vez m on vectorial sera |yi = a |x1 i + b |x2 i + c |x3 i y las ecuaciones normales (2.3)
as, la ecuaci
para este sistema se construyen como


a = 6
136 = 98a +36b +14c



113 32
62 = 36a +14b +6c b= 5 113
y = 6x2 + x .
5 5
26 = 14a +6b +4c






c = 32

ar
5

Practicando con Maxima:

in
Es posible en Maxima ajustar por mnimos cuadrados los parametros de curvas arbitrarias para un
conjunto de datos empricos. La funci
on a utilizar sera lsquares.

lim
Consideremos el ejemplo estudiado anteriormente donde los datos eran:

(x, y) = (1, 2) , (3, 2) , (4, 5) , (6, 6)

Haremos uso de la librera lsquares y escribiremos los datos en forma de matriz

(%i1) load(lsquares)$

(%i2) datos: matrix([1,2],[3,2],[4,5],[6,6])$


re
rP
Por conveniencia, para luego graficar, convertimos la matrix datos en una lista con el comando args:

(%i3) datosL: args(datos);

( %o3) [[1, 2] , [3, 2] , [4, 5] , [6, 6]]


o

Supondremos entonces que los puntos se ajustan a un polinomio lineal y = ax. El parametro a se
ad

calcula con la funci


on lsquares estimates. Se deja como ejercicio repetir este mismo calculo pero
usando un ajuste de los datos de la forma: y = ax + b.

(%i4) param: lsquares_estimates(datos,[x,y],y=a*x,[a]), numer;


rr

( %o4) [[a = 1,032258064516129]]

(%i5) y:ev(a*x,first(param));
Bo

( %o5) 1,032258064516129 x

Procedemos a graficar los datos experimentales vs el ajuste por mnimos cuadrados.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 105
DE FUNCIONES
2.4. APROXIMACION

ar
in
lim
(%i6) wxplot2d([[discrete,datosL], y], [x,0,10],[style, [points,5,2], [lines,2,1]],
[point_type, plus], [legend,"Datos","y=ax"],[xlabel, "x"],[ylabel, "y"])$

( %o6)
El siguiente caso estudiado fue con el conjunto de datos

|x1 i = (1, 2, 1, 1) ; re
|x2 i = (2, 1, 1, 1) ;

y suponiendo que ajustan de la manera siguiente |yi = a |x1 i + b |x2 i.


|yi = (15, 12, 10, 0)
rP
(%i7) datos2: matrix([1,2,15],[2,1,12],[1,1,10],[1,-1,0])$

Cambiaremos ligeramente la notaci


on por: z = ax + by y calculemos los parametros a y b.
o

(%i8) param: lsquares_estimates(datos2,[x,y,z], z=a*x+b*y,[a,b]), numer;


ad

( %o8) [[a = 4,090909090909091, b = 5,090909090909091]]

Para el tercer ejemplo se consideraron los siguientes datos:


rr

{(0, 1) , (1, 3) , (2, 7) , (3, 15)} y = ax2 + bx + c

Haremos con Maxima el c


alculo directo usando un ajuste cuadratico para los datos suministrados.
Bo

(%i9) datos3: matrix([0,1],[1,3],[2,7],[3,15])$

(%i10)datosL3: args(datos3)$

(%i11)param: lsquares_estimates(datos3,[x,y], y=a*x^2+b*x+c,[a,b,c]), numer;

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 106
DE FUNCIONES
2.4. APROXIMACION

( %o11) [[a = 1,5, b = 0,1, c = 1,1]]

(%i12)y2:ev(a*x^2+b*x+c,first(param))$

Como hicimos anteriormente, graficamos los datos y el ajuste cuadratico.

(%i13)wxplot2d([[discrete,datosL3], y2], [x,0,4],[style, [points,5,2], [lines,2,1]],


[point_type, plus], [legend,"Datos","y=ax^2+bx+c"],[xlabel, "x"],[ylabel, "y"])$

( %o13)

ar
in
lim
re
rP

2.4.3. Interpolaci
on polinomial de puntos experimentales
o

Muchas veces nos encontramos con la situacion en la cual tenemos un conjunto de (digamos n) medidas
o puntos experimentales {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), , (xn , yn = f (xn ))} y para modelar ese
ad

experimento quisieramos una funci on que ajuste estos puntos.


El tener una funci on nos provee la gran ventaja de poder intuir o aproximar los puntos que no hemos
medido. La funci on candidata m as inmediata es un polinomio y debemos definir el grado del polinomio
y la estrategia que aproxime esos puntos. Puede ser que no sea lineal el polinomio y queramos ajustar
rr

esos puntos a un polinomio tal que este pase por los puntos experimentales. Queda entonces por decidir
la estrategia. Esto es, si construimos la funcion como trozos de polinomios que ajusten a subconjuntos:
{(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), , (xm , ym = f (xm ))} con m < n de los puntos experimentales. En este
Bo

caso tendremos una funci on de interpolacion para cada conjunto de puntos. Tambien podemos ajustar la
funcion a todo el conjunto de puntos experimentales y, en ese caso el maximo grado del polinomio que los
interpole sera de grado n 1. Para encontrar este polinomio lo expresamos como una combinacion lineal de

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 107
DE FUNCIONES
2.4. APROXIMACION

ar
in
Figura 2.1: En el lado izquierdo se muestran los puntos experimentales:

lim
{(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la funcion polinomica que los interpola.

Polinomios de Legendre. Esto es

P(x) = f (x) =
n1
X
Ck |Pk i =
n1
X
Ck Pk (x)




..
.
re
y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + + Cn1 Pn1 (x1 )
y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + + Cn1 Pn1 (x2 )
rP

k=0 k=0

yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + + Cn1 Pn1 (xn )

que no es otra cosa que un sistema de n ecuaciones con n incognitas: los coeficientes {C0 , C1 , Cn1 }.
Al resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la funcion polin omica
que interpola esos puntos. Una expansi on equivalente se pudo haber logrado con cualquier otro conjunto de
o

polinomios ortogonales, que ellos son base del espacio de funciones.


Es importante hacer notar que debido a que los polinomios de Legendre estan definido en el intervalo
ad

[1, 1] los puntos experimentales deber an re-escalarse a ese intervalo para poder encontrar el polinomio de
interpolacion como combinaci on lineal de los Polinomios de Legendre. Esto se puede hacer con la ayuda del
siguiente cambio de variable:
(b a)t + b + a ba
x= , dx = dt
2 2
rr

donde a y b son los valores mnimos y m aximos de los datos, respectivamente.


Bo

Ejemplo Consideremos los puntos experimentales representados en la figura 2.1. Aqu a = 2 y b = 12, por
lo tanto: x = 5t + 7 y dx = 5dt t = (x 7)/5 y dt = dx/5.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 108
DE FUNCIONES
2.4. APROXIMACION

Al construir el sistema de ecuaciones obtendremos lo siguiente:

(1, 8) 8 = C0 C1 + C2 C3 + C4 C5

53 , 10 10 = C0 3 1 9 51 477

5 C1 + 25 C2 + 25 C3 125 C4 + 3125 C5

15 , 11 11 = C0 1 11 7 29 961

5 C1 25 C2 + 25 C3 + 125 C4 3125 C5

1 1 11 7 29 961

5 , 18 18 = C0 + 5 C1 25 C2 25 C3 + 125 C4 + 3125 C5

3 3 1 9 51 477

5 , 20 20 = C0 + 5 C1 + 25 C2 25 C3 125 C4 3125 C5

ar
(1, 34) 34 = C0 + C1 + C2 + C3 + C4 + C5

al resolver el sistema obtendremos que

in
2249 3043 1775 175 625 14375
C0 = , C1 = , C2 = , C3 = , C4 = , C5 =
144 336 504 216 336 3024

lim
con lo cual
2249 3043 1775 175 625 14375
P(x) = f (x) = + x+ P (2, x) P (3, x) + P (4, x) + P (5, x)
144 336 504 216 336 3024
la interpolaci
on queda representada en al figura 2.1.
Es importante senalar que mientras mas puntos experimentales se incluyan para la interpolaci on, el
polinomio resultante ser
ximacion m re
a de mayor grado y, por lo tanto incluira oscilaciones que distorsionaran una apro-
as razonable. Por ello, la estrategia de hacer la interpolacion a trozos, digamos de tres puntos en
tres puntos, generar
a un mejor ajuste, pero sera una funcion (un polinomio) continua a trozos.
rP
Practicando con Maxima

Maxima contiene la librera orthopoly que nos permite acceder a la evaluacion simbolica y numerica
de los diferentes tipos de polinomios ortogonales: Chebyshev, Laguerre, Hermite, Jacobi, Legendre...
o

(%i1) load (orthopoly)$


ad

Por ejemplo, para obtener los primeros 6 polinomios de Legendre escribimos los siguientes comandos:
(%i2) [legendre_p(0,x),legendre_p(1,x),legendre_p(2,x),
legendre_p(3,x),legendre_p(4,x),legendre_p(5,x)]$
rr

Simplificamos con ratsimp:


(%i3) ratsimp (%);
Bo

3 x2 1 5 x3 3 x 35 x4 30 x2 + 3 63 x5 70 x3 + 15 x
 
( %o3) 1, x, , , ,
2 2 8 8
Los diferentes polinomios de Legendre se pueden visualizar de la manera siguiente
(%i4) wxplot2d(%,[x,-1,1],[legend, "P0", "P1","P2", "P3","P4", "P5" ])$

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 109
DE FUNCIONES
2.4. APROXIMACION

ar
in
lim
( %o4)
Ahora bien, con los datos de la Figura 2.1 se planteo un sistema de ecuaciones lineales que procedemos a
resolver:
(%i5) ecu1:C0-C1+C2-C3+C4-C5=8$

re
(%i6) ecu2:C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10$
(%i7) ecu3:C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11$
(%i8) ecu4:C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18$
rP
(%i9) ecu5:C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20$
(%i10)ecu6:C0+C1+C2+C3+C4+C5=34$
(%i11)linsolve([ecu1,ecu2,ecu3,ecu4,ecu5,ecu6], [C0,C1,C2,C3,C4,C5]);
o

 
2249 3043 1775 175 625 14375
( %o11) C0 = , C1 = , C2 = , C3 = , C4 = , C5 =
144 336 504 216 336 3024
ad

(%i12)[C0,C1,C2,C3,C4,C5]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4]),rhs(%[5]),rhs(%[6])];
 
2249 3043 1775 175 625 14375
( %o12) , , , , ,
144 336 504 216 336 3024
rr

Por lo tanto, la funci


on aproximada sera:
(%i13)f:C0+C1*legendre_p(1,x)+C2*legendre_p(2,x)+C3*legendre_p(3,x)
Bo

+C4*legendre_p(4,x)+legendre_p(5,x)*C5$

(%i14)f:expand(%);

14375 x5 3125 x4 8375 x3 325 x2 7367 x 1863


( %o14) + + +
384 384 192 192 384 128

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 110
DE FUNCIONES
2.4. APROXIMACION

(%i15)datos:[[-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]];
         
3 1 1 3
( %o15) [1, 8] , , 10 , , 11 , , 18 , , 20 , [1, 34]
5 5 5 5
(%i16)wxplot2d([[discrete,datos],f], [x,-1,1],[style, [points,5,2], [lines,2,1]],
[point_type, plus],[legend, false],[xlabel, "x"],[ylabel, "y"])$

( %o16)

ar
in
lim
re
rP
2.4.4. Ejercicios
1. Demuestre que con las identidades siguientes

eikx + eikx eikx eikx


o

cos(kx) = , sen(kx) = ,
2 2i
ad

la serie de Fourier definida para funciones en el intervalo (t, t + 2) se escribe en su forma compleja
como:

1 X X
f (x) = a0 + [ak cos(kx) + bk sen(kx)] f (x) = ck eikx ,
2
rr

k=1 k=
con Z t+2
1
ck = f (x)eikx dx .
2
Bo

Y que para funciones definidas en el intervalo (l, l + 2L)


Z l+2L
X ikx 1 ikx
f (x) = ck e L , con ck = f (x)e L dx .
2L l
k=

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 111
DE FUNCIONES
2.4. APROXIMACION

Nota: Para los siguientes ejercicios supondremos la utilizacion de cualquier ambiente de manipulaci
on
simb
olica tipo: MAPLE, Mathematica, Maxima, Python o similares.
2. Para las siguientes funciones determine la serie de Fourier calculando los coeficientes como en la Secci
on
2.4 y compare los resultados con los calculos hechos en el ambiente de manipulacion simbolica.
a) f (x) = x sen(x), si < x < .
b) f (x) = ex , si < x < .
c) f (x) = x, si 0 < x < 2.
d) f (x) = 2x 1, si 0 < x < 1.
3. Al medir la temperatura a lo largo de una barra material obtenemos los siguientes valores

ar
xi (cm) 1, 0 2, 0 3, 0 4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
Ti ( C) 14, 6 18, 5 36, 6 30, 8 59, 2 60, 1 62, 2 79, 4 99, 9

in
Encuentre, mediante el metodo de los mnimos cuadrados los coeficientes que mejor ajustan a la recta
T = ax + b.

4. Considere el espacio vectorial, C[1,1] , de funciones reales, continuas y continuamente diferenciables

lim
definidas en el intervalo[1, 1]. Es claro que una posible base de este espacio de funciones la constituye el
conjunto de monomios 1, x, x2 , x3 , x4 , por cuanto estas funciones son linealmente independientes.
a) Si suponemos que este espacio vectorial esta equipado con un producto interno definido por
R1
hf |gi = 1 dx f (x)g(x), muestre que esa base de funciones no es ortogonal.
R1
on de producto interno hf |gi = 1 dx f (x)g(x) ortogonalice la base
b) Utilizando la definici

re
1, x, x2 , x3 , x4 , y encuentre los 10 primeros vectores ortogonales, base para C[1,1]
nueva base de polinomios ortogonales se conoce como los polinomios de Legendre.
R1 p
. Esta
rP
c) Modifique un poco la definici on de producto interno hf |gi = 1 dx f (x)g(x) (1 x2 ) y ortogo-

nalice la base 1, x, x2 , x3 , x4 , y encuentre otros 10 primeros vectores ortogonales base para

el mismo C[1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de
Tchebychev.
d ) Suponga la funci on h(x) = sen(3x)(1 x2 ):
1) Expanda la funci on h(x) en terminos de la base de monomios y de polinomios de Legendre,
o

grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones.
ad

2) Expanda la funci on h(x) en terminos de la base de monomios y de polinomios de Tchebychev,


grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones.
3) Expanda la funci on h(x) en terminos de la base de polinomios de Legendre y de Tchebychev,
grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones.
4) Estime en cada caso el error que se comete como funcion del grado del polinomio (o monomio)
rr

de la expansi on.
Que puede concluir respecto a la expansion en una u otra base?
Bo

5. Los precios de un determinado producto varan como se muestra a continuacion:

A
no 2007 2008 2009 2010 2011 2012 2013 2014
Precio 133,5 132,2 138,7 141,5 144,2 144,5 148,6 153,8

Realice una interpolaci


on polinomial que permita modelar estos datos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 112
2.5. ALGUNOS EJEMPLOS RESUELTOS

2.5. Algunos ejemplos resueltos


1. Consideramos el espacio vectorial de polinomios de grado g n definidos en el intervalo [0, 1] o en el
intervalo [1, 1] seg
un el caso
a) Cu ales de los siguientes conjuntos de vectores en P 3 son linealmente independientes?
al o cu
Explique por que.
1)
|x1 i = 2x; |x2 i = x2 + 1; |x3 i = x + 1; |x4 i = x2 1 .
Soluci
on: Resultan ser linealmente dependiente ya que podremos expresar

ar
|x4 i = |x1 i + |x2 i 2|x3 i .

2)
|x1 i = x(x 1); |x2 i = x; |x3 i = x3 ; |x4 i = 2x3 x2 .

in
Soluci
on: Linealmente dependiente ya que siempre podremos expresar

|x4 i = |x1 i + |x2 i + 2|x3 i .

lim
b) Considerando las siguientes definiciones de producto interior en P n
Z 1 Z 1
hqn |pn i = p(x)q(x)dx y hqn |pn i = p(x)q(x)dx .
1 0

re
En P 3 encuentre la distancia y el angulo entre los vectores

|x1 i = x(x 1); |x2 i = x .


rP
Soluci
on: En general la definicion de distancia es
p
d (|x1 i, |x2 i) = hx2 x1 |x2 x1 i
R1
por lo tanto para hqn |pn i = 1
p(x)q(x)dx la distancia sera
o

sZ
p 1
2 1
hx2 x1 |x2 x1 i = [x(x 1) x] dx = 690
ad

1 15
R1
y para hqn |pn i = 0
p(x)q(x)dx sera
s
rr

1
2
Z
2
p
hx2 x1 |x2 x1 i = (x(x 1) x) dx = 30 .
0 15
Bo

Con respecto a los


angulos:
!
hx1 |x2 i
= arc cos p p .
hx1 |x1 i hx2 |x2 i
R1
Para hqn |pn i = 1
p(x)q(x)dx tenemos

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 113
2.5. ALGUNOS EJEMPLOS RESUELTOS

! R1
hx1 |x2 i 1
(x(x 1)) x dx
= arc cos p p = arc cos qR qR
hx1 |x1 i hx2 |x2 i 1 2 1
(x(x 1)) dx 1 x dx2
1

1
 
= arc cos 15 6 = 2,4825 rad .
12
R1
Para hqn |pn i = 0
p(x)q(x)dx

ar
! R1
hx1 |x2 i 0
(x(x 1)) (x) dx
= arc cos p p = arc cos qR qR
hx1 |x1 i hx2 |x2 i 1 2 1
(x(x 1)) dx 0 x2 dx
0

in
1
 
= arc cos 15 2 = 2,4825 rad .
12

lim
El mismo
angulo!

c) Una de las posibles bases de P n sera el conjunto 1, x, x2 , x3 , , xn con el producto interno
R1
definido por hf | gi = 0 dx f (x) g (x).
1) Encuentre la base ortonormal que expande el subespacio S 3 de los polinomios, P n , de grado
g 3.
Soluci re 
on: El subespacio S 3 tendra como vectores linealmente independientes 1, x, x2 , x3 ,
para encontrar la base ortonormal utilizamos el metodo de Gram Smith, con lo cual tendremos
que
rP
n1
X hvn |ei i
|en i |vn i |ei i ,
i=1
hei |ei i
esto es
|e1 i = |v1 i = 1
o

R1
hv2 |e1 i xdx 1
|e2 i = |v2 i |e1 i = x R0 1 =x
ad

he1 |e1 i dx 2
0
R1 2 R1 2
x x 21 dx
  
hv3 |e1 i hv3 |e2 i 2 0
x dx 0 1
|e3 i = |v3 i |e1 i |e2 i = x R 1 R1 2 x
he1 |e1 i he2 |e2 i dx x 12 dx 2
0 0
rr

1
= x2 x +
6
hv4 |e1 i hv4 |e2 i hv4 |e3 i
|e4 i = |v4 i |e1 i |e2 i |e3 i
Bo

he1 |e1 i he2 |e2 i he3 |e3 i


R    R 1 3 2 1  
1 3
x x 12 dx x 12 x x + 6 x dx x2 + 16 x
R1 3 
x dx 0 0
= x3 0R 1 R1 2 R1 2
0
dx 0
x 12 dx 0
x2 + 16 x dx
1 3 3
= x3 + x x2
20 5 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 114
2.5. ALGUNOS EJEMPLOS RESUELTOS

Normalizando
|e1 i 1
|1 i = p = qR =1
he1 |e1 i 1
dx
0

x 21
 
|e2 i 1
|2 i = p = qR = 2 3 x
he2 |e2 i 1 2 2
0
x 12 dx

x2 + 16 x
 
|e3 i 2 1
|3 i = p = qR = 6 5 x + x
he3 |e3 i 1 2 6
x2 + 16 x dx

ar
0

x3 1
+ 35 x 23 x2
 
|e4 i 20 3 1 3 3 2
|4 i = p = qR = 20 7 x + x x

in
he4 |e4 i 1 1
2 20 5 2
0
x3 20 + 35 x 32 x2 dx

2) Encuentre las componentes del polinomio g (x) = 5 + 3x2 x3 + x5 proyectado sobre esa base

lim
ortonormal que expande a S 3
on: Las componentes de la proyeccion de g (x) en S 3 seran
Soluci
Z 1
71
c1 = hg |1 i = (1) 5 + 3x2 x3 + x5 dx =

0 12
1 197
  
c2 = hg |2 i =

c3 = hg |3 i =
Z

Z
0
1 
2 3 x



1
2
1
6 5 x2 + x

re
5 + 3x2 x3 + x5 dx =

420

5 + 3x2 x3 + x5 dx =

3

23
5
rP
0 6 210
1 4
Z   
1 3 3 2
c4 = hg |4 i = 3
5 + 3x2 x3 + x5 dx =

20 7 x + x x 7,
0 20 5 2 315

con lo cual
71 197 23 4
|giS 3 = |1 i + 3 |2 i + 5 |3 i + 7 |4 i .
o

12 420 210 315


Finalmente la proyecci on del polinomio en S 3 sera
ad

   
71 197 3 23 5
    
1 1 4 7 1 3 3 2
gS 3 (x) = + 2 3 x + 6 5 x2 + x + 3
20 7 x + x x
12 420 2 210 6 315 20 5 2
rr

     
71 197 1 23 1 16 1 3 3
gS 3 (x) = + x + x2 + x + x3 + x x2
12 70 2 7 6 9 20 5 2
es decir
Bo

313 25 13 2 16 3
gS 3 (x) = + x+ x + x
63 42 21 9
La norma ser
a
2 2 2  2
197 23 4
  
2 71 1,418,047
k|giS 3 k = + 3 + 5 + 7 = = 35,728 .
12 420 210 315 39,690

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 115
2.5. ALGUNOS EJEMPLOS RESUELTOS

2. Encuentre la mnima distancia desde el subespacio S 3 al polinomio g (x)


Soluci a la norma del vector ortogonal a S 3 tal que
on: La distancia mnima ser

|gi = |giS 3 + |giS 3 donde |giS 3 S 3

y |giS 3 es un vector de su complemento ortogonal. Por lo tanto el Teorema de Pitagoras nos dice que
2 2 2
k|gik = k|giS 3 k + k|giS 3 k

con lo cual tendremos que la mnima distancia sera


q
2 2

ar
k|giS 3 k = k|gik k|giS 3 k

Z 1
2 2 495193
5 + 3x2 x3 + x5

in
k|gik = dx =
0 13860

1418047

lim
2
k|giS 3 k =
39690
con lo cual r
495193 1418047
k|giS 3 k = 1,196 5 102
13860 39690

3. Sea f (x) = e2x una funci



renciables, C[1,1] re
on perteneciente al espacio lineal de funciones continuas y continuamente dife-
R1
, en el cual el producto interno viene definido por hq|pi = 1 p(x)q(x) dx. Encuentre
el polinomio lineal m as cercano a la funcion f (x).
rP
Solucion: En el subespacio S 1 de polinomios lineales, los vectores base son {1, x}. Es una base orto-
gonal pero no es normal, con lo cual la normalizamos
1 1 1
|e1 i = |v1 i = 1 |1 i = p = qR = 2
he1 |e1 i 1
dx 2
1
o

R1
hv2 |e1 i 1
xdx x 6
|e2 i = |v2 i |e1 i = x R 1 = x |2 i = qR = x
ad

he1 |e1 i dx 1
x2 dx 2
1 1

y la proyecci
on ortogonal de esta funcion sera

rr

!
1
1 1
Z   Z
2 6 6 2
0 2x
e2 + e2 1 2x
e + 3e2
 
c = e 2 dx = y c = x e dx =
1 2 4 1 2 8
Bo

con lo cual la funci


on lineal ser
a
!
6 2 2 2
n
e2 + e2 .
 
P = e + 3e x
8 4

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 116
2.6. EJERCICIOS PROPUESTOS

2.6. Ejercicios propuestos


1. Los vectores en R3 en coordenadas cartesianas los definimos como i

i a = ai |ei i = ax i + ay j + az k y
on entre ellos de la forma e |ej i = j con i, j = 1, 2, 3, esto es:
definimos una tabla de multiplicaci

i
e |ej i i j k
i 1 0 0
j 0 1 0
k 0 0 1

Un cuaterni
on cartesiano puede escribirse de manera analoga a los vectores cartesianos, vale decir:

ar
|ai = a |q i = a0 + ai |qi i = a0 + ax i + ay j + az k ,

con = 0, 1, 2, 3 y donde las ai (con i = 1, 2, 3) son n


umeros reales que representan las componentes
vectoriales en coordenadas cartesianas de los cuaterniones, mientras que la a0 , tambien un n

in
umero
real se le llama componente escalar16 . Los cuaterniones fueron inventados por el matematico irlandes
William Rowan Hamilton a mediados del siglo XIX, y por decirlo de alguna manera, son hbridos o
generalizaciones a un plano hipercomplejo. Un vector cartesiano es un cuaternion con la componente

lim
escalar nula.
Basandonos en este esquema podemos definir la tabla de multiplicacion para los cuaterniones carte-
sianos como
|qi i |qj i 1 |q1 i |q2 i |q3 i
1 1 |q1 i |q2 i |q3 i
|q1 i
|q2 i
|q3 i
|q1 i 1
|q2 i |q3 i
|q3 i
re
|q3 i |q2 i
1
|q2 i |q1 i
|q1 i
1
rP
otese que por el hecho que |qj i |qj i = 1 |q1 i |q1 i = |q2 i |q2 i = |q3 i |q3 i = 1, se puede
N
pensar que un cuaternion es la generalizacion de los n umeros complejos a mas de una dimension (un
n
umero hipercomplejo) donde la parte imaginaria tendra tres dimensiones y no una como es costumbre.
Esto es
|ai = a |q i = a0 |q0 i + aj |qj i = a0 + a1 |q1 i + a2 |q2 i + a3 |q3 i
o

|{z} | {z }
1 parte compleja
ad

Siendo consistente con esa visi


on de generalizacion de un numero complejo, definiremos el conjugado
z
de un cuaternion como |bi = b0 |q0 i bj |qj i con j = 1, 2, 3. Es decir, en analoga con los n
umeros
complejos el conjugado de un cuaternion cambia el signo de su parte compleja vectorial. Igualmente,
definiremos la suma entre cuaterniones como
rr


|ai = a |q i
|ci = c |q i = |ai + |bi = (a + b ) |q i c = (a + b )

|bi = b |q i

Bo

Esto quiere decir que los vectores se suman componente a componente. Mientras que la multiplicaci on
por un escalar queda definida por |ci = c |q i, es decir se multiplica el escalar por cada componente.
16 Recuerde on de Einstein en la cual c |q i c0 + 3j=1 cj |qj i. Es decir hemos supuesto
P
que estamos utilizando la convenci
que |q0 i 1, la unidad en los n
umeros reales. Adicionalmente, notese que los ndices griegos , , toman los valores 0, 1, 2, 3,
mientras que los latinos que acompa nan a los vectores cartesianos toman los siguiente valores j, k, l = 1, 2, 3.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 117
2.6. EJERCICIOS PROPUESTOS

a) Compruebe si los Cuaterniones, |ai, forman un espacio vectorial respecto a esa operacion suma y
esa multiplicacion por escalares, analoga a la de los vectores en R3 en coordenada cartesianas
 
b) Dados dos cuaterniones |bi b0 , b y |ri r0 , r , entonces, el producto entre cuaterniones
|di = |bi |ri podra representarse como

|di = |bi |ri d0 , d = b0 r0 b r, r0 b + b0 r + b r


 

donde y corresponden con los productos escalares y vectoriales tridimensionales de siempre.


Ahora con ndices: dados |bi = b |q i y |ri = r |q i, compruebe si el producto |di = |bi |ri
puede ser siempre escrito de la forma

|di = |bi |ri = a |q0 i + S (ij) i0 |qj i + A[jk]i bj rk |qi i

ar
donde a representa un escalar; S (ij) i0 tres cantidades (recuerde que los ndices latinos toman los
(ij)
valores j, k, l = 1, 2, 3, mientras i = 0, 1, 2,
 3); donde S indica S ji = S ij , que la cantidad S ij es

in
simetrica, y por lo tanto S i + S i |qj i. Mientras A[jk]i representa un conjunto de objetos
ij 0 ji 0

antisimetricos en j y k: A[jk]i Ajki = Akji Ajki bj rk Akji bj rk |qi i17 .
Identifique las cantidades: a, S (ij) y A[jk]i en terminos de las componentes de los cuaterniones El

lim
producto de cuaterniones |di = |ai |ri sera un vector, pseudovector o ninguna de las anteriores?
Explique por que.
c) Muestre que los cuaterniones pueden ser representados por matrices complejas 2 2 del tipo
 
z w
|bi
w z

donde z, w son n
umeros complejos.
d ) Muestre que una representaci
on posible para la base de
re cuaterniones es, la matriz unitaria 4x4 y
rP

0 1 0 0 0 0 0 1 0 0 1 0
1 0 0 0 0 0 1 0 0 0 0 1
|q1 i =
0 0 0 1 ;
|q2 i =
0 1 0
; |q3 i =
0 1 0 0 0
0 0 1 0 1 0 0 0 0 1 0 0
o

e) Compruebe si la siguiente es una buena definicion de producto interno:


ad

z
ha |bi = |ai |bi

f ) Modifique un poco la definici


on anterior de tal forma que se tenga la
rr

1
ha |bi = [ha |bi |q1 i ha |bi |q1 i]
2
y compruebe si esta definici
on compleja del producto interno cumple con todas las propiedades.
Bo

N on de la forma |f i = f 0 + f 1 |q1 i es un n
otese que un cuaterni umero complejo convencional.
g) Compruebe si la siguiente es una buena definicion de norma para los cuaterniones
q
z
p
n(|bi) = k|aik = ha |ai = |ai |ai
17 Para familiarizarse con las expresiones vectoriales con la notaci
on de ndices puede consultar la secci
on 1.6

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 118
2.6. EJERCICIOS PROPUESTOS

h) Comprebe si un cuaterni
on definido por
z
|ai
|ai = 2
k|aik
puede ser considerado como el inverso o elemento simetrico de |ai respecto a la multiplicaci
on
i ) Compruebe si los Cuaterniones |ai forman un grupo respecto a una operacion multiplicaci
on .
j ) Los vectores en R3 en coordenadas cartesianas, |vi, pueden ser representados como cuaterniones
donde la parte escalar es nula v 0 = 0 |vi = v j |qj i. Compruebe si el siguiente producto conserva
la norma
|v 0 i = |ai |vi |ai

ar
 0 2  0 2  0 2 2 2 2
2 2
Estos es: k|v 0 ik = v 1 + v2 + v3 v 1 + v 2 + v 3 = k|vik .

2. En el mismo espritu de los cuaterniones considerados previamente, considere otra vez el espacio R3

in
andar {i, j, k} y suponga en este espacio el producto de dos vectores
expadido por la base ortonormal est
a y b (o |ai y |bi en la notaci
on de vectores abstractos de Dirac) definido a la manera del algebra
geometrica 18 . Esto es:

lim
K
|ai |bi ab = a b + a b
andar de R3 , representando la parte conmutativa de ab y a b su parte
con a b el producto escalar est
anticonmutativa. Esta u ltima parte se relaciona con el producto vectorial estandar de la representaci
on
de Gibbs como a b = ia b, con i = i j k un pseudoescalar19 .
Este formalismo ha tenido cierto impacto en computacion grafica20 y lo vamos a utilizar para modelar
transformaciones de objetos en el espacio.
re
Considere el caso 2D representado en la Figura 2.2 y en el formalismo de algebra geometrica el objeto
angulo lo asociamos con vector abstracto |4i, mientras que el objeto cuadrado lo representaremos
tri
rP
como |i, y el tercer objeto por |i.

a) Exprese los vectores: |4i , |i , |i en terminos de la base ortonormal estandar {i, j, k} (o |ii , |ji , |ki)
y el formalismo de algebra geometrica.
J
b) Exprese |4i |i en termino de la base geometrica. Vale decir si |Og i es un objeto geometrico
o

puede representarse en terminos de una base |i , |i , |Bi , |ii donde |i un escalar; |i un vector;
|Bi un bivector y, finalmente |ii un pseudoescalar.
ad

c) Encuentre la norma de cada uno de ellos y la distancia entre |4i y |i.


E

on A |4i = 4
d ) Considere ahora la operaci
E

1) Si A|ji es el operador reflexion respecto |ji, exprese en terminos geometricos 4 = A|ji |4i
rr

J
y A|ii (|4i |i).
2) Si A,|Bi es elJoperador de rotacion alrededor de un bivector |Bi un angulo . Encuentre
Bo

A/4,|Bi (|4i |i) con |Bi = |ji + |ki


18 Hestenes David. Vectors, spinors, and complex numbers in classical and quantum physics. Am. J. Phys 39, no. 9 (1971):

1013-1027.
19 Y equivalentemente, por isomorfismo i = 1.
20 Pueden consultar Hildenbrand D., D. Fontijne, Ch. Perwass and L. Dorst: Geometric algebra and its application to computer

graphics. In Tutorial notes of the EUROGRAPHICS conference, 2004. O tambi en Hildenbrand, Dietmar: From Grassmanns
vision to geometric algebra computing. Springer Basel, 2011.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 119
2.6. EJERCICIOS PROPUESTOS

ar
in
lim
Figura 2.2: Se ilustran los vectores ortonormales estandares {i, j} y como siempre k = i j

3) Como interpreta Ud la ecuacion de autovalores A |4i = 2 |4i?

e) Considere el caso 3D en el cual 4


E

la Figura 2.2 y 
E

re
representa un tetraedro regular con la base representada por
, un cubo, tambien con su base representada en el plano de la misma figura.
rP
E E

1) Exprese los vectores: 4 ,  en terminos de la base ortonormal estandar {i, j, k} y el
formalismo de algebra geometrica.
 E J  J

2) Exprese 4 |i |4i en termino de la base geometrica.
E E E

3) Encuentre la norma de 4 y la distancia entre 4 y A/2,|ji  .
o

 E
con A/2,|ji , B/4,|ii = A/2,|ji B/4,|ii B/4,|ii A/2,|ji
  
4) Exprese A/2,|ji , B/4,|ii 
ad

3. En Geometra Diferencial podemos considerar a R3 como un conjunto de puntos (una variedad o espacio
topologico), es decir, R3 no es un espacio vectorial como se definio con anterioridad. En un punto q
cualquiera podemos generar un plano R2 , entendido tambien como un conjunto de puntos, y definir el
rr

siguiente conjunto Tq R2 = {el conjunto de todos los vectores geometricos (flechas) con origen en q que
son tangentes al plano R2 }. Notemos que la idea la podemos extender para cualquier superficie, por
ejemplo, una esfera S2 (embebida en R3 ) y sobre la esfera seleccionar un punto arbitrario q. A partir
Bo

de este punto q generar un plano y construir el conjunto Tq S2 = {el conjunto de todos los vectores
geometricos con origen en q que son tangentes a la esfera S2 }.

a) Es Tq R2 un espacio vectorial?
b) Claramente podemos seleccionar otro punto arbitrario, pero diferente de q, digamos p y construir
el conjunto Tp R2 . Son estos dos espacios isomorfos?

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 120
2.6. EJERCICIOS PROPUESTOS

Considremos ahora el conjunto de todas las funciones diferenciables f : R3 R. Eso es, que existen
todas las derivadas parciales en q R3 :

x f (xi ) , y f (xi ) , z f (xi ) R (xi ) R3

Note que hemos supuesto un sistema de coordenadas cartesiano xi = (x, y, z) en R3 y que las derivadas
son evaluadas en q.
Consideremos el espacio
 tangente Tq R3 en un punto q arbitrario y un vector |uq i Tq R3 con compo-
1 2 3
nentes u , u , u , podemos definir el siguiente operador (operador derivada direccional) en q siguiendo
a |uq i
|Uq i = u1 x + u2 y + u3 z q


ar
Por lo tanto:

|Uq i f u1 x + u2 y + u3 z f = u1 (x f )q + u2 (y f )q + u3 (z f )q

q

in
Es posible entonces construir el conjunto de los operadores derivadas direccionales que act
uan sobre
las funciones f :
Dq (R3 ) = {|Uq i = u1 x + u2 y + u3 z q |uq i Tq R3 }


lim
c) Es Dq un espacio vectorial?
d) Los espacios Dq y Tq R3 son isomorfos?

re
o rP
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 121
Bibliografa

ar
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici
on
(Academic Press, Nueva York)
[2] Scharnhorst, K. (2009) Angles in complex vector spaces Acta Applicandae Mathematica), 69(1),

lim
95-103
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)

[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition,
London:
re
[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Enginee-
rP
ring (Cambridge University Press)
[7] Santal
o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[8] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
o
ad
rr
Bo

122
Captulo 3

ar
Vectores Duales y Tensores

in
lim
re
orP
ad
rr
Bo

123
3.1. FUNCIONALES LINEALES

3.1. Funcionales lineales


En los cursos mas elementales de calculo se estudiaron funciones de una y mas variables reales. Estas
funciones pueden considerarse entonces como funciones que act uan sobre vectores en R3 . Podemos extender
esta idea para funciones que tengan como argumento vectores de un espacio vectorial arbitrario.
Comenzaremos con las funciones mas sencillas, las lineales, que tambien son conocidas como operadores
lineales.
Definiremos funcionales lineales como aquella operacion que asocia un numero complejo (o real) K a
un vector |vi V y cumple con la linealidad, vale decir:

|vi V F [|vi] C ,

ar
F [ |v1 i + |v2 i] F [|v1 i] + F [|v2 i] , |v1 i , |v2 i V y , K.

El conjunto de funcionales lineales {F1 , F2 , F3 , , Fn , } constituyen a su vez un espacio vectorial, el


cual se denomina espacio vectorial dual de V y se denotara como V (no es complejo conjugado). Si V es

in
de dimensi on finita n, entonces dimV = dimV = n.
acil convencerse que los funcionales lineales forman un espacio vectorial ya que dados F1 , F2 V
Es f
se tiene

lim

(F1 + F2 ) [|vi] = F1 [|vi] + F2 [|vi]
|vi V .
( F) [|vi] = F [|vi]

A este espacio lineal tambien se le llama espacio de formas lineales y a los funcionales 1formas o covectores,
al espacio vectorial V tambien se le denomina espacio directo.

interno constituye la expresi

Fa [|vi] ha |vi
re
En aquellos espacios lineales con producto interno definido (Espacios de Hilbert), el mismo producto
on natural del funcional. As tendremos que

|vi V ha| V .
rP
Es claro comprobar que el producto interno garantiza que los {Fa , Fb , } forman un espacio vectorial:

(Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi
|vi V .
( Fa ) [|vi] = ha |vi = ha |vi = Fa [|vi]

o

Esta u
ltima propiedad se conoce como antilinealidad.
ad

Se establece entonces una correspondencia 1 a 1 entre kets y bras, entre vectores y funcionales lineales (o
formas diferenciales):
1 |v1 i + 2 |v2 i  1 hv1 | + 2 hv2 | ,
que ahora podemos precisar:
rr


ha |vi = hv |ai ,
ha |1 v1 + 2 v2 i = 1 ha |v1 i + 2 ha |v2 i ,
Bo

h1 a1 +2 a2 |vi = 1 ha1 |vi + 2 ha2 |vi .

M un, dada una base {|e1 i , |e2 i , |e3 , i |en i} para V siempre es posible asociar una base para V de
as a
tal manera que

|vi = i |ei i  hv| = i ei , con i = ei |vi i = hv |ei i



para i = 1, 2, , n

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 124
3.1. FUNCIONALES LINEALES

En un lenguaje

arcaico (y muchos textos de Mecanica todava lo reproducen) se denota a la base del
espacio dual ei y la base del espacio directo base recproca {|ei i}.
Se puede ver tambien que si |vi = i |ei i, entonces

F [|vi] = F i |ei i = i F [|ei i] = i i


 

donde hemos definido F [|ei i] i .


N
otese que estamos utilizando la notacion de Einstein
en la que ndices repetidos indican suma, y en
donde las bases del espacio dual de formas diferenciales ek llevan los ndices arriba. Los ndices arriba se
llamaran contravariantes y los ndices abajo

covariantes. Las componentes de las formas diferenciales en una
base dada, llevan ndices abajo ha| = ai ei mientras que las componentes de los vectores los llevan arriba
|vi = j |ej i.

ar
otese tambien que dada una base en el espacio directo |ei i existe una u
N nica base canonica en el dual
definida como:
i
e |ej i = F i [|ej i] = ji

in
Esta 1forma al actuar sobre un vector arbitrario resulta en

F i [|vi] = F i j |ej i = j F i [|ej i] = j ji = i


 

lim
es decir, en su componente contravariante. El conjunto de 1formas {F i }
ser a linealmente independientes.
Si |vi = i |ei i es un vector arbitrario en el espacio directo y ha| = ai ei un vector en el espacio dual,
entonces:
ha |vi = ai ei j |ej i = ai j ei |ej i = ai j ji = ai i




Para bases arbitrarias {|ei i} de V y { ei } de V se tiene
re
ha |vi = ij ai j
rP

donde ij ei |ej i.

Ejemplos
Un ejemplo sencillo de un funcional lineal es la integral de Riemann que podemos interpretar de la
manera siguiente
o

Z b
I [|f i] = f (x)dx
ad

donde f (x) C[a,b] , es decir, pertenece al espacio vectorial de funciones reales y continuas en el intervalo
[a, b].
Consideremos V = R3 como el espacio vectorial conformado por todos los vectores columna
rr

1

|vi = 2
Bo

onica {|ii i} resulta en:


que al representarse en su base can

1 0 0
|vi = 1 0 + 2 1 + 3 0 = 1 |i1 i + 2 |i2 i + 3 |i3 i = i |ii i
0 0 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 125

3.2. PARENTESIS TENSORIAL

Sea F V , de manera que F [|vi] = i wi pueda representarse por vectores fila

F = (w1 , w2 , w3 )

Notemos que para la base en el espacio dual, que denotaremos i = { ii } la definimos como:

i [|ij i] = ii |ij i = ji i1 |i1 i = 1 ,





1
1
2
2
i |i2 i = 0 , i |i3 i = 0 , i |i1 i = 0 , i |i2 i = 1 ,

En este caso: i = |ii i y adem


as
1
1 1


1 [|vi] = (1, 0, 0) 2 = 1 , 2 [|vi] = (0, 1, 0) 2 = 2 , 3 [|vi] = (0, 0, 1) 2 = 3

ar
3 3 3

3.1.1. Ejercicios

in
1. Encuentre las bases duales para los siguientes espacios vectoriales
a) R2 , donde: |e1 i = (2, 1) y |e2 i = (4, 1)
b) R3 , donde: |e1 i = (1, 1, 3), |e2 i = (0, 1, 1) y |e3 i = (2, 1, 0)

lim
2. Si V es el espacio vectorial de todos los polinomios reales de grado n 1. Y si ademas definimos
Z 1 Z 2
1 [|pi] = p(x)dx 2 [|pi] = p(x)dx
0 0

3.2. Par
entesis tensorial
re
donde { 1 , 2 } V . Encuentre una base {|e1 i , |e2 i} V que resulte dual a { 1 , 2 }.
rP
Las funciones mas simples que se pueden definir sobre un espacio vectorial, el funcional lineal, nos permite
extendernos al concepto de tensor.

3.2.1. Tensores, una definici


on funcional
o

Definiremos como un tensor a un funcional lineal (bilineal en este caso) que asocia un elemento del Campo
K, complejo o real, a un vector |vi V, a una forma hu| V , o ambas, y cumple con la linealidad. Esto es:
ad

|vi V hu| V T [hu| ; |vi] C


T [hu| ; |v1 i + |v2 i] T [hu| ; |v1 i] + T [hu| ; |v2 i] |v1 i , |v2 i V hu| V
rr

T [ hu1 | + hu2 | ; |vi] T [hu1 | ; |vi] + T [hu2 | ; |vi] |vi , V hu1 | , hu2 | V
En pocas palabras: un tensor es un funcional generalizado cuyos argumentos son vectores y/o formas, lo
que significa que T [; ] es una cantidad con dos puestos y una vez cubiertos se convierte en un escalar
Bo

(complejo o real). Un tensor, con un argumento correspondiente a un vector y un argumento correspondiente


a una forma, lo podremos representar de la siguiente manera:
|vi hu|
 
1
T ; C tensor de tipo

1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 126

3.2. PARENTESIS TENSORIAL

Un tensor con dos argumentos correspondientes a vectores y uno a una forma sera
|v i |v i hu|
1 2  
1
T [, ; ] T , ; C tensor de tipo ;
2

y el caso contrario
|vi hu1 | hu2 |

 
2
T [; , ] T ; , C tensor de tipo
1

ar
En general
|v
1i |v2 i |vn i hu1 | hu2 | hum |

 
m
T , , , ; , , C tensor de tipo .

in
n

En esta notaci
on el punto y coma (;) separa las entradas formas de las entradas vectores. Es impor-
tante recalcar que el orden si importa, no solo para las cantidades separadas por ;, sino el orden de los

lim
puestos vectores y puestos formas separados por coma y repercutira en las propiedades de los tensores.
Por ejemplo: si el orden de las entradas vectores no importa, podremos permutarlas sin alterar
al tensor, tendremos entonces tensores sim etricos respecto a esos puestos o entradas; del
mismo modo, ser an tensores antisimetricos aquellos en los cuales el orden si importa y al permutar esos
puestos o entradas hay un cambio de signo en el tensor. Todos estos casos seran tratados con detalle
m
re
as adelante, pero vale la pena recalcar que en general, para un tensor generico el orden de la entradas o
puestos si importa pero no necesariamente se comporta como los casos rese nados anteriormente.
Notemos que en el caso general un tensor es basicamente un aplicacion multilineal T sobre V V:
rP
T : Vm Vn = V V V V V V V V C
| {z } | {z }
m n

con n el orden covariante y m el orden contravariante.


Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores,
es decir:
o

hu|
 
1
Un vector es un tensor del tipo T C.
ad

los vectores constituyen un caso especial de tensores.


|vi
rr

 
0
Una forma es un tensor del tipo T C.
1
Bo

porque son funcionales lineales para las formas diferenciales. Finalmente:


 
0
Un escalar es un tensor del tipo C.
0
 
m
Por lo tanto, un tensor es un funcional multilineal que asocia m 1-formas y n vectores en C.
n

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 127

3.2. PARENTESIS TENSORIAL

3.2.2. Producto tensorial


Como sera evidente mas adelante, los tensores (simples) pueden provenir del producto tensorial (exterior
o directo) de espacios vectoriales. Esto es, dados E1 y E2 dos espacios vectoriales con dimensiones n1 y n2 ,
respectivamente y vectores genericos, |(1)i y |(2)i pertenecientes a estos espacios vectoriales: |(1)i E1
y |(2)i E2 . Definiremos el producto tensorial (exterior o directo)de espacios
 vectoriales, E = E1 E2 , si
2
a cada par de vectores |(1)i y |(2)i le asociamos un tensor tipo y si se cumple que
0
h(1)| h(2)|


|(1)(2)i = |(1)i |(2)i T , = h(1) |(1)i h(2) |(2)i C

ar
y si adem
as se cumplen las siguientes propiedades:

1. La suma entre tensores de E viene definida como

in
|(1)(2)i + |(1)(2)i = |(1)i |(2)i + |(1)i |(2)i
= |(1) + (1)i |(2) + (2)i

lim
2. El producto tensorial es lineal respecto a la multiplicacion con n
umeros reales y

[|(1)i] |(2)i = [ |(1)i] |(2)i = [|(1)i |(2)i] = |(1)(2)i


|(1)i [|(2)i] = |(1)i [ |(2)i] = [|(1)i |(2)i] = |(1)(2)i

re
3. El producto tensorial es distributivo respecto a la suma:

|(1)i [|1 (2)i + |2 (2)i] = |(1)i |1 (2)i + |(1)i |2 (2)i


rP
[|1 (1)i + |2 (1)i] |(2)i = |1 (1)i |(2)i + |2 (1)i |(2)i

N
otese que los ndices (1) y (2) denotan la pertenencia al espacio respectivo.

acil convencerse que los tensores |(1)(2)i E = E1 E2 forman un espacio vectorial y la demos-
Es f
o

traci
on se basa en comprobar los axiomas o propiedades de los espacios vectoriales tal y como lo describimos
en la Seccion 2.1.3:
ad

on suma  es cerrada en V : |vi i , |vj i V |vk i = |vi i  |vj i V.


1. La operaci
Esto se traduce en demostrar que sumados dos tensores |(1)(2)i y |(1)(2)i E el tensor suma
tambien pertenece a E, con a y b pertenecientes al campo del espacio vectorial
rr

a |(1)(2)i + b |(1)(2)i = |a(1) + (1)i |(2) + b(2)i

y esto se cumple siempre ya que, el producto tensorial es lineal respecto a la multiplicacion con n
umeros
Bo

reales y por ser E1 y E2 espacios vectoriales se cumple



|a(1) + (1)i = a |(1)i + |(1)i E1
= |(1) + (1)i |(2) + (2)i E
|(2) + b(2)i = |(2)i + b |(2)i E2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 128

3.2. PARENTESIS TENSORIAL

2. La operaci
on suma  es conmutativa y asociativa
Conmutativa |vi i , |vj i V |vi i  |vj i = |vj i  |vi i
Esta primera es clara de la definicion de suma

|(1)(2)i + |(1)(2)i = |(1) + (1)i |(2) + (2)i

|(1)(2)i + |(1)(2)i = |(1) + (1)i |(2) + (2)i

por ser E1 y E2 dos espacios vectoriales


|vi i , |vj i , |vk i V (|vi i  |vj i)  |vk i = |vj i  (|vi i  |vk i)
una vez m as, esto se traduce en:

ar
(|(1)(2)i + |(1)(2)i) + |(1)(2)i = |(1)(2)i + (|(1)(2)i + |(1)(2)i)

con lo cual, por la definici


on de suma la expresion anterior queda como

in
(|(1) + (1)i |(2) + (2)i) + |(1)(2)i = |(1)(2)i + (|(1) + (1)i |(2) + (2)i)

|((1) + (1)) + (1)i |((2) + (2)) + (2)i = |(1) + ((1) + (1))i |(2) + ((2) + (2))i

lim
nico elemento neutro: |0i
3. Existe un u / |0i  |vj i = |vj i  |0i = |vj i |vj i V
Es decir,

|(1)(2)i + |0(1)0(2)i = |(1) + 0(1)i |(2) + 0(2)i = |(1)i |(2)i = |(1)(2)i

4. Existe un elemento simetrico para cada elemento de V :


|vj i V |vj i / |vj i  |vj i = |0i
re
rP
|(1)(2)i |(1)(2)i = |(1) (1)i |(2) (2)i = |0(1)i |0(2)i = |0(1)0(2)i

5. ( |vi i) = () |vi i :

( |(1)(2)i) = (|(2)i |(1)i) = |(2)i |(1)i


= () |(2)i |(1)i = () |(1)(2)i
o

6. ( + ) |vi i = |vi i + |vi i :


ad

( + ) |(1)(2)i = |(1)i |( + ) (2)i = |(1)i |(2) + (2)i


= |(1)i [( |(2)i + |(2)i)]
= |(1)i |(2)i + |(1)i |(2)i
rr

7. (|vi i  |vj i) = |vi i  |vj i :


Bo

(|(1)(2)i + |(1)(2)i) = (|(1) + (1)i |(2) + (2)i)


= | ((1) + (1))i |(2) + (2)i
= |(1) + (1)i |(2) + (2)i
= (|(1)(2)i + |(1)(2)i)
= |(1)(2)i + |(1)(2)i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 129

3.2. PARENTESIS TENSORIAL

Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si


E1 y E2 son dos espacios vectoriales duales a E1 y E2 , con dimensiones n1 y n2 , respectivamente. A estos
espacios pertenecen las formas diferenciales genericas h(1)| E1 y h(2)| E2 . Definiremos el producto
tensorial de espacios vectoriales duales, E =E1 E2 , si a cada par de formas diferenciales h(1)| E1 y
0
h(2)| E2 le asociamos un tensor tipo . Esto es
2
h(1)(2)| = h(1)| h(2)|

3.2.3. La tentaci
on del producto interno
A partir de las definiciones de productos internos en E1 y E2 , uno puede verse tentado a definir un

ar
producto interno de la siguiente forma
h(1)
(2)
|(1)(2)i = h(1)
|(1)i h(2)
|(2)i .
Mostraremos, sin embargo, que NO es una buena definicion de producto interno, y para ello debemos de-

in
mostrar que no se satisfacen los axiomas o propiedades del producto interno que expusimos en la Secci on
2.2.3.
Para facilitar la lectura repetiremos aqu las propiedades que definen el producto interno (expuestas en

lim
la Secci
on 2.2.3) y haremos las adaptaciones del caso son:
1. hx| xi R hx| xi 0 |xi V si hx| xi = 0 |xi |0i
Esto es:
h(1)(2) |(1)(2)i = h(1) |(1)i h(2) |(2)i
como h(1) |(1)i y h(2) |(2)i son buenas definiciones de producto interno tendremos que

h(2) |(2)i 0

h(1) |(1)i 0

re
h(1)(2) |(1)(2)i 0
rP
Aqu vale la pena mencionar algunos puntos sutiles sobre la segunda parte de la propiedad a demostrar:
Si hx| xi = 0 |xi |0i, lo cual para este caso se traducen en
h(1)(2) |(1)
(2)i
= h(1) |(1)i
h(2) |(2)i
=0

h(1) |(1)i
=0
o



|(1)i
= |0(1)i




h(2) | (2)i
6
= 0


ad







h(1) |(1)i
6 0
=



h(1) |(1)i
h(2) |(2)i
=0 |(2)i
= |0(2)i
h(2) | (2)i
= 0



rr






h(1) |(1)i
=0 |(1)i
= |0(1)i








Bo


h(2) |(2)i
=0 |(2)i
= |0(2)i

definitivamente, habra que restringir los posibles vectores que intervienen en el producto tensorial, de
modo que no fuera posible vectores del tipo
|(1)0(2)i |(1)i |0(2)i o |0(1)(2)i |0(1)i |(2)i
s
olo as se cumple la propiedad mencionada.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 130

3.2. PARENTESIS TENSORIAL


2. hx| yi = hy| xi |xi , |yi V
Esto puede ser demostrado f acilmente como sigue
h(1)
(2)
|(1)(2)i = h(1)
|(1)i h(2)
|(2)i

= h(1) |(1)i
h(2) |(2)i


= (h(1) |(1)i
h(2) |(2)i)


= h(1)(2) |(1)
(2)i

3. hx| y + zi = hx| yi + hx| zi hx + z| yi = hx| yi + hz| yi |xi , |yi , |zi V


Partimos del lado derecho de la primera de las igualdades anteriores:
h(1)
(2)|
[|(1)(2)i + |(1)(2)i] = h(1)
(2)|
[|(1) + (1)i |(2) + (2)i]

ar
= h(1)
|(1) + (1)i h(2)
|(2) + (2)i
y otra vez, como h(1) |(1)i y h(2) |(2)i son buenas definiciones de producto interno tendremos
que:

in
h(1)
|(1) + (1)i = h(1)
|(1)i + h(1)
|(1)i
h(2)
|(2) + (2)i = h(2)
|(2)i + h(2)
|(2)i

lim
y al multiplicar h(2)
|(2) + (2)i por h(1)
|(1) + (1)i surgiran cuatro sumandos
h(1)
|(1)i h(2)
|(2)i + h(1)
|(1)i h(2)
|(2)i + h(1)
|(1)i h(2)
|(2)i + h(1)
|(1)i h(2)
|(2)i
lo cual contrasta con el lado izquierdo al utilizar la definicion dos veces que tienen dos sumandos
h(1)
(2)
|(1)(2)i + h(1)
(2)
|(1)(2)i = h(1)
|(1)i h(2)
|(2)i + h(1)
|(1)i h(2)
|(2)i

3.2.4. Bases para un producto tensorial


re
por lo cual NO se cumple esta propiedad y no hay forma de enmendarla.
rP
Si {|ui (1)i} y {|vi (2)i} son, respectivamente, bases discretas para E1 y E2 entonces podremos construir
el tensor
|ui (1)vj (2)i = |ui (1)i |vj (2)i E
el cual funcionar
a como una base para E y, por lo tanto, podremos construir un tensor generico de E
|(1)(2)i = |(1)i |(2)i = i j |ui (1)vj (2)i
o

donde i y j son las componentes de |(1)i y |(2)i en sus respectivas bases. En otras palabras, las
ad

componentes de un tensor en E corresponden a la multiplicacion de las componentes de los vectores en E1


y E2 . Recuerde que estamos utilizando Pn la convencion de Einstein de suma tacita en ndices covariantes y
contravariantes, en la cual ck |vk i k=1 ck |vk i .
Es importante se nalar que si bien un tensor generico |i E siempre se puede expandir en la base
rr

|ui (1)vj (2)i no es cierto que todo tensor de E provenga del producto tensorial de E1 y E2 . Es decir, E tiene
mas tensores de los que provienen el producto tensorial. Esta afirmacion puede intuirse del hecho que si
|i E entonces
|i = cij |ui (1)vj (2)i
Bo

por ser {|ui (1)vj (2)i} base para E. Es claro que dados dos numeros 1 y 2 habra cij que no provienen de
la multiplicacion de 1 2 .
El conjunto de todas funciones bilineales T [hu| ; |vi] forman un espacio vectorial sobre el espacio directo
E. Este espacio vectorial de funciones tendra una base dada por
f ij = |(1)i |(2)i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 131

3.2. PARENTESIS TENSORIAL

Ejemplo Consideremos los siguientes elementos



x1
|vi = x2 M31 y |ui = (y1 y2 y3 ) M13
x3

donde Mmn indica matrices m n sobre los n umeros reales R.


El conjunto de matrices Mmn constituyen un espacio vectorial para la suma y multiplicacion por los
n
umeros reales, ademas, la dimensi
on de este espacio vectorial es: dim(Mmn ) = mn.
Podemos definir la siguiente operaci
on:

x1 x1 y1 x1 y2 x1 y3

ar
|v ui = x2 (y1 y2 y3 ) = x2 y1 x2 y2 x2 y3 M31 M13 = M33
x3 x3 y1 x3 y2 x3 y3

Notemos que este funcional (funcional bilineal) cumple con:

in
T [1 |v1 i + 2 |v2 i , |ui] = 1 T [|v1 i , |ui] + 2 T [|v2 i , |ui]
T [|vi , 1 |u1 i + 2 |u2 i] = 1 T [|vi , |u1 i] + 2 T [|vi , |u2 i]

lim
donde {1 , 2 } R, {|vi , |v1 i , |v2 i} V1 = M31 y {|ui , |u1 i , |u2 i} V2 = M13 .
Veamos que si {|e1 (1)i , |e2 (1)i , |e3 (1)i} es una base para V1 y {|e1 (2)i , |e2 (2)i , |e3 (2)i} es una base para
2
V definidas como

1 0 0

con el producto previamente


0

definido, resulta:
1 re
|e1 (1)i = 0 , |e2 (1)i = 1 , |e3 (1)i = 0 , |e1 (2)i = (1 0 0) , |e2 (2)i = (0 1 0) , |e3 (2)i = (0 0 1)
0
rP

1 0 0 0 1 0 0 0 1
|e1 (1)i |e1 (2)i = 0 0 0 , |e1 (1)i |e2 (2)i = 0 0 0 , |e1 (1)i |e3 (2)i = 0 0 0
0 0 0 0 0 0 0 0 0
o


0 0 0 0 0 0 0 0 0
|e2 (1)i |e1 (2)i = 1 0 0 , |e2 (1)i |e2 (2)i = 0 1 0 , |e2 (1)i |e3 (2)i = 0 0 1
ad

0 0 0 0 0 0 0 0 0


0 0 0 0 0 0 0 0 0
|e3 (1)i |e1 (2)i = 0 0 , |e3 (1)i |e2 (2)i = 0 0 , |e3 (1)i |e3 (2)i = 0
rr

0 0 0 0
1 0 0 0 1 0 0 0 1

Es claro que este conjunto de matrices (matrices 3 3) forman una base para el espacio V3 = M33 , y
Bo

que dim(V3 ) = 9.

3.2.5. Tensores, sus componentes y sus contracciones


Hemos mencionado anteriormente que un escalar es una cantidad que se puede especificar, independien-
temente del sistema de coordenadas, por un solo n
umero. Los vectores geometricos que dibujabamos con

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 132

3.2. PARENTESIS TENSORIAL

flechas los sustituimos ahora por tres n


umeros respecto a una base seleccionada, es decir, a traves de sus tres
componentes. Los escalares y los vectores son casos particulares de objetos mas generales que denominaremos
tensores, tensores de orden o rango k y cuya especificacion en cualquier sistema de coordenadas requerir a
de 3k numeros, llamadas las componentes del tensor. Esto significa que un escalar es un tensor de orden 0
(30 = 1 componente) y un vector un tensor de orden 1 (31 = 3 componentes). Si el espacio vectorial es de
dimensi on n, entonces un tensor de orden k tendra nk componentes.
Como veremos m as adelante, los tensores son mucho mas que simples n umeros respecto a un sistema
de coordenadas y la clave radica en la ley de transformacion de sus componentes, es decir, en la relaci on
que existe entre las componentes de un tensor en un sistema de coordenadas y las componentes del mismo
tensor en otro sistema de coordenadas diferente. Lo que hay detras de todo esto es el hecho de que las
leyes matem aticas que describen los fen
omenos fsicos deben ser invariantes bajo transformaciones de

ar
coordenadas, como por ejemplo: traslaciones, el espacio es homogeneo, y rotaciones, el espacio es isotropo.

Componentes de un tensor

in
Denominaremos componentes de un tensor, aquellos n umeros que surgen de incorporar bases de formas
{hxm 
diferenciales y vectores. As, si {|ui (1)i , |vj (2)i , |tk (3)i} y  (1)| , hy n (2)|} son bases para los vectores y
2
las formas, respectivamente, las componentes de un tensor seran

lim
3

|vj (2)i |wk (3)i hxm (1)| hy n (2)|


|u
i (1)i

mn
Sijk =S , , ; , .

Es de hacer notar que la selecci


directo, S, y su dual S i.e re
on de las bases no es arbitraria sino que deben corresponderse, entre el espacio

{|ui (1)i , |vj (2)i , |wk (3)i} {hxm (1)| , hy n (2)|} {|xp (1)i , |yq (2)i} hua (1)| , v b (2) , hwc (2)| .


rP
Claramente, esta definicion de componentes contiene a las componentes de aquellos espacios tensoriales
generados por el producto tensorial. Si consideramos un tensor como resultado de un producto tensorial y
consideramos las bases {|ui (1)i , hxm (1)|}, sus componentes se pueden expresar {m (1)i (1)}, vale decir,
 
1
o

|(1)i h(1)| hxm (1) |(1)i h(1)| ui (1)i {m (1)i (1)} .


1
ad

Combinaciones lineales de tensores


Es claro que podremos sumar (componentes) de tensores como lo hemos hecho con la suma de (compo-
nentes) de vectores
rr

a + b = (ax + bx ) i + (ay + by ) j + (az + bz ) k = a1 + b1 i + a2 + b2 j + a3 + b3 k = ai + bi |ii i ,


   

esto es:
Bo

ij
Rkl = Qij ij
kl + Pkl .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 133

3.2. PARENTESIS TENSORIAL

Producto tensorial de tensores


Podemos
  extender
  a un mas la idea del producto directo y extenderla para tensores. As, para dos tensores
2 2
tipo y se tiene que
0 1
h(1)| h(2)|


|(1)(2)i = |(1)i |(2)i = T ,

|u h(1)| h(2)|
i (1)i


|(1)(2)(1)i = |(1)i |(2)i h (1)| = P ; , ,

ar
el producto directo es

|(1)(2)i |(1)(2)(1)i = |(1)i |(2)i |(1)i |(2)i h (1)|

in
h(1)| h(2)| |u (1)i h(1)| h(2)|
i

= T , P ; ,

lim
|u h(1)| h(2)| h(3)| h(4)|
i (1)i


= R ; , , ,

Por ejemplo, en componentes sera como se muestra a continuacion:

re
Rkijlm = T ij Pklm .
rP
Contracci
on de un tensor
Denominaremos una contracci on cuando sumamos las componentes covariantes y contravariantes, esto
es, si tenemos i (1)i (1) entonces se genera un escalar independiente de la base. Esta situacion ser
a m
as
evidente cuando definamos metricas y contraccion de tensores. Por analoga y considerando un caso m as
mn 2
general, dada las componentes Sijk correspondiente a un tensor podremos construir un nuevo tensor
o

3
 
1 mn in n
a partir de una contracci
on. Las componentes de este nuevo tensor seran: Sijk Sijk Sjk .
ad

2
Del mismo modo, dadas las componentes de dos tensores, P lm y Qij zk generar an componentes de nuevos
tensores Rklij = P lm Qij
mk . As

 
2
rr

P lm

 
0 3
  Rklij = P lm Qij
mk .
2 ij 1
Qzk
2

Bo

Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son
bases ortonormales para E1 , E1 y E2 , entonces sus productos podran ser expresados como

|(1)(2)i = i (1) j (2) |ui (1)i |vj (2)i , |(1)(1)i = l (1)m (2) |ul (1)i hum (1)| ,
 
| {z } | {z }
P ij Qlm

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 134

3.2. PARENTESIS TENSORIAL

entonces:

l (1)m (2) |ul (1)i hum (1)| i (1) j (2) |ui (1)i |vj (2)i
    

l (1)m (2) i (1) j (2) {hum (1) |ui (1)i} |vj (2)i |ul (1)i

=
| {z }
im
l k j

= (1)k (2) (1) (2) |vj (2)i |ul (1)i
= P ij Qli |vj (2)ul (1)i
= Rjl |vj (2)ul (1)i .

Pero m un, si |ui (1)vj (2)i = |ui (1)i |vj (2)i E es base de E entonces se puede demostrar lo anterior
as a

ar
sin circunscribirnos a tensores cuyas componentes provengan de multiplicacion de las componentes en cada
espacio vectorial.

in
Simetrizaci
on de tensores
Un tensor (las componentes) sera simetrico respecto a dos de sus ndices si su permutacion no cambia su
valor:

lim
Sij = Sji ; S ij = S ji ; Sijklmn = Sijlkmn S ijklmn = S ijlkmn
y ser
a antisimetrico si

Aij = Aji ; Aij = Aji Aijklmn = Aijlkmn Aijklmn = Aijlkmn .

Un tensor de rango 2, viene representado por una matriz que tendra 32 = 9 componentes. Si la matriz es
simetrica tendr
a como maximo 6 componentes distintas.
1
S1 S21 S31
1
re
S1 S21 S31

rP
Sji = Sij = S12 S22 S32 = S21 S22 S32
S13 S23 S33 S31 S32 S33

mientras que un tensor antisimetrico de segundo orden tendra, cuando maximo, tres componentes con valor
absoluto distintos de cero
A12 A13

0
o

Aij = Aji = A21 0 A23


3 3
A1 A2 0
ad

Siempre es posible construir tensores simetricos y antisimetricos a partir de un tensor generico. Esto es:
1 1
Sij = (Tij + Tji ) T(ij) Sijklmn = (Tijklmn + Tijlkmn ) = Tij(kl)mn
2 2
rr

1 1
Aij = (Tij Tji ) T[ij] Aijklmn = (Tijklmn Tijlkmn ) = Tij[kl]mn
2 2
Bo

Mas a
un, es evidente que las componentes de un tensor generico Tij , pueden expresarse como una combinaci
on
de su parte simetrica y antisimetrica
Tij = Sij + Aij .
Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 135

3.2. PARENTESIS TENSORIAL

3.2.6. Tensor m
etrico, ndices y componentes
Para una base generica, {|uj i}, no necesariamente ortogonal,
  de un espacio vectorial con producto interno,
0
podemos definir la expresi on de un tensor simetrico, que denominaremos tensor metrico, de la
2
siguiente manera
hu | huj |
|u i |u i i
i j

g , , = g [|ui i , |uj i] = gij gji , g , = g ui , uj = g ij g ji




1
con g ij = (gij ).

ar
h i
otese que las gij gji son las componentes del tensor g , una vez que la base {|uj i} ha actuado.
N
La denominaci on de tensor m etrico, no es gratuita, g cumple con todas las propiedades de la metrica
definida para un Espacio Vectorial Euclidiano expuestas en la Seccion 2.2.1.

in
Una vez mas, para facilitar la lectura, transcribiremos a continuacion esas propiedades:
1. g [|ui i , |uj i] = gij gji 0 |uj i , y si g [|ui i , |uj i] = 0 i = j

lim
2. g [|ui i , |uj i] = g [|uj i , |ui i] gij gji
3. g [|ui i , |uj i] g [|ui i , |uk i] + g [|uk i , |uj i]: La desigualdad Triangular
Si la base generica, {|ui i} = {|ei i}, es ortonormal, entonces estas propiedades emergen de manera natural
g [, ] gij ei ej gji ej ei y g [, ] g ij |ei i |j i g ji |ej i |ei i ,




con lo cual sus componentes ser


En general impondremos que


 

re
an matrices simetricas gij = gji e igualmente g ij = g ji .

gij ui uj g km |uk i |um i = gij g km ui |uk i uj |um i = gij g km ki m


j
= gij g ji = ii = n ,
rP
ya que i, j = 1, 2, 3, , n. Con lo cual gij es la matriz inversa de g ij . Es decir, hemos definido las componentes
contravariantes del tensor de modo que cumplan con gik g kj = ij .
Adicionalmente, tambien es claro que
gij ui uj |ai = ak gij ui uj |uk i = ak gij uj |uk i ui = ak gij kj ui = ak gik ui ai ui ,










o

con lo cual ai = ak gik . De la misma forma


ad

ha| g ij |ui i |uj i = ha| g ij |ui i |uj i = g ij ha |ui i |uj i = ak g ij uk |ui i |uj i = ak g kj |uj i aj |uj i ,
 

otra vez aj = ak g kj , ahora subimos el ndice correspondiente.


De esta manera, el tensor metrico nos permite asociar formas con vectores, componentes covariantes
(formas) a componentes contravariantes (vectores) y dicho rapido y mal, pero de uso muy frecuente: el
rr

tensor metrico nos permite subir y bajar ndices.


Otra forma de verlo es combinando las propiedades del producto directo de tensores y contracci on de
ndices
Bo

g ij |ui i |uj i Pklmn |ul i |um i |un i uk g ij Pklmn |uj i Pklmn |ul i |um i |un i uk ui i


g ij Pklmn |uj i |ul i |um i |un i uk ui i = P jlmn |uj i |ul i |um i |un i g ij Pilmn P jlmn .


| {z }
ik

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 136

3.2. PARENTESIS TENSORIAL

Adicionalmente, el tensor metrico permite la contraccion de ndices. As, dado un producto tensorial de
dos vectores que se pueden expresar en una base ortonormal {|ei i}

|a, bi = |ai |bi = ak bm |ek i |m i




i
j  k
a |ek i b |em i = a b gij ki m
m k m j
= ak bm gkm = ak bk = hb |ai = ha |bi .

gij e e

Es decir, el producto interno de dos vectores involucra, de manera natural, la metrica del espacio,

hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km .

Obviamente la norma de un vector, tambien incluira al tensor metrico:

ar
2
k|aik = ha |ai = ai aj ei |ej i = ai ai = ai aj g ij = ai aj gij .

El caso m as emblematico lo constituye la norma de un desplazamiento infinitesimal. Para una base

in
generica, {|uj i} no necesariamente ortogonal de un espacio vectorial con producto interno, el desplazamiento
infinitesimal puede expresarse como
2
(ds) hdr |dri = dxk uk (dxm |um i) = uk |um i dxk dxm = dxm dxm = gkm dxk dxm .



lim
Si la base {|ej i} es ortogonal (cosa m
as o menos com
un pero no necesariamente cierta siempre) las matrices
gij y g ij son diagonales y cumplen que
1 2 2 2 2
gii = (ds) = h1 dx1 + h2 dx2 + h3 dx3
g ii

re
donde hi = gii , con i, j = 1, 2, 3 (aqu no hay suma), se denominan los factores de escala.
Y si la base {|ii i} es ortonormal, es f
acil ver que
rP
2 k
(ds) hdr |dri = m dxk dxm = dxm dxm = dxm dxm

es decir:
g11 = g22 = g33 = 1 , gij = 0 si i 6= j
esto significa que en coordenadas cartesianas el desplazamiento infinitesimal es la ya conocida expresi
on:
o

ds2 = dx2 + dy 2 + dz 2 .
ad

3.2.7. Teorema del cociente


Al igual que existe el producto directo entre tensores, cabe preguntarse si es posible multiplicar un tensor
arbitrario (de cualquier rango) por un objeto desconocido Ese producto sera un tensor?
rr

Existe importantes situaciones fsicas en las cuales es aplicable esta pregunta. Si Tij son las componentes
de un tensor de rango 2 y el producto Tij V i = Bj es un vector. El objeto V i sera un vector? La respuesta
es siempre afirmativa, y puede ser utilizada como un criterio para identificar componente de tensores. Este
Bo

criterio se denomina el Teorema del Cociente.


La respuesta a esta pregunta surge de la respuesta a una pregunta distinta pero equivalente. Supongamos
que nos dan n2 n umeros aij y un (una componente de un) vector generico V i , si la cantidad aij V i V j
es un

1 0
escalar entonces la parte simetrica a(ij) = 2 (aij + aji ) sera un (una componente de) tensor del tipo: .
2
La demostraci on involucra algunas de las ideas antes expuestas y la haremos para fijar conceptos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 137

3.2. PARENTESIS TENSORIAL

Dados dos sistemas de coordenadas xi = xi (


xm ) y x
j = x
j (xm ) (con i, j = 1, 2, 3, , n) se cumple que

aij xi xj = = = a i x
ij x j donde = constituye un escalar

y por lo tanto, derivando y utilizando la regla de la cadena

xi xi x
j
xi = xi x
j (xm ) i

m
= = m ,
x xm
x j

por lo que

k x
l
 
i j i j x
aij x x a
ij x
x aij a
kl xi xj = 0 ,
xi xj

ar
como hay una suma en ij no se puede afirmar que la cantidad del parentesis se anula. Como esta afirma-
ci
on vale para cualquier sistema de coordenadas, seleccionaremos las componentes coordenadas en la base

in
canonica.
x1 = (1, 0, 0, , 0) ; x2 = (0, 1, 0, , 0) ; xn = (0, 0, 0, , 1)
con lo cual

lim
x l
k x k x
x l k x
x l
a11 a
kl = 0; a22 a
kl = 0; ann a
kl = 0,
x x1
1 x x2
2 x xn
n

1 1
Como siempre podemos hacer a
(kl) = 2 (
akl + a
lk ) y a
[kl] = 2 akl a
( lk ) y separar el tensor

k x
 x l k x
x l
a
kl = a
(kl) + a
[kl] a(mm) a
(kl) + a
[kl]
rexm xm
=0

La parte simetrica del tensor transforma siguiendo la regla: amn = km ln a


a(mm) = a
(kl)

kl y es lo que de ahora en
xm xm
,
rP
adelante denominaremos un tensor de segundo orden. En este caso, la parte simetrica de un tensor transforma
como un verdadero tensor una vez que se contrae con un par de vectores.

Practicando con Maxima:

Maxima presenta dos paquetes para la manipulacion de tensores, paquetes en constante desarrollo
o

todava. Estos paquetes son ctensor, manipulacion de componentes y el paquete itensor, manipulaci on
indexada. En la manipulaci on por componentes los tensores se representan por arreglos o matrices. En la
ad

manipulaci on indexada los tensores se representan por funciones de sus ndices covariantes, contravariantes
y de derivadas.
Los ndices covariantes se especifican mediante una lista que sera el primer argumento del objeto indexado,
siendo los ndices contravariantes otra lista que sera el segundo argumento del mismo objeto indexado. Si
rr

al objeto indexado le falta cualquiera de estos grupos de ndices, entonces se le asignara al argumento
correspondiente la lista vaca []. As, g([a, b], [c]) representa un objeto indexado llamado g, el cual tiene dos
ndices covariantes (a, b), un ndice contravariante (c) y no tiene ndices de derivadas.
Bo

(%i1) load(itensor)$
(%i2) imetric(g);

(%i3) ishow(g([j,k],[])*g([i,l],[])*a([],[i,j]))$

( %t3) ai j gj k gi l

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 138

3.2. PARENTESIS TENSORIAL

(%i4) ishow(contract(%))$
( %t4) ak l
(%i5) ishow(kdelta([i],[k])*a([k,l],[]))$

( %t5) ik ak l
(%i6) ishow(contract(%))$
( %t6) ai l

La identidad ij ji = 3

ar
(%i7) ishow(contract(kdelta([i], [j])*kdelta([j], [i])))$

( %t7) kdelta

in
(%i8) ishow(ev(%,kdelta))$
( %t8) 3

lim
El smbolo de Levi-civita:
(%i9) levi_civita([1, 2, 3]);levi_civita([1, 3, 2]);levi_civita([3, 3, 2]);
( %o9) 1
( %o10) 1
( %o11) 0 re
(%i12)expr:ishow(levi_civita([],[i,j,k])*levi_civita([i,j,k],[]))$
rP
( %t12) i j k i j k

Aqu es necesario utilizar la funci


on lc2kdt( ) que simplifica expresiones que contengan el smbolo de
Levi-Civita, para convertirlas en expresiones con la delta de Kronecker siempre que esto sea posible.1
o

(%i13)ishow(lc2kdt(expr))$
 
ad

( %t13) ik ji 3 jk kj + ij jk 3 ik ki 3 ij ji + 27


(%i14)ishow(contract(expand(%)))$

( %t14) 27 7
rr

(%i15)ishow(ev(%,kdelta))$
( %t15) 6
Bo

1 En ocaciones, la funci
on lc2kdt( ) hace uso del tensor m
etrico. Si el tensor m
etrico no fue previamente definido con imetric,
se obtiene un mensaje de error.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 139

3.2. PARENTESIS TENSORIAL

3.2.8. Un par de tensores


En esta seccion vamos a ejemplificar la utilizacion de los tensores en varios ambitos de la Fsica, en
particular de la Mecanica. En la pr
oxima seccion 3.2.8 consideraremos el tensor de esfuerzos para describir
las tensiones internas de cuerpos sometidos a fuerzas externas. Haremos el analisis tanto para el caso de dos
como de tres dimensiones. Luego en la Seccion 3.2.8 consideraremos el tensor de inercia y su impacto en la
dinamica de cuerpos en movimiento.

1. El tensor de esfuerzos (stress)

ar
in
lim
re
o rP
ad
rr

Figura 3.1: Tensor de Esfuerzos (stress) en 2 dimensiones


Bo

El caso 2D
Supongamos un cuerpo que se encuentra en equilibrio y esta sometido a un conjunto de fuerzas externas.
Para facilitar las cosas consideremos el efecto de esas fuerzas sobre un plano que contiene a un determinado
punto P (ver Figura 3.1 cuadrante Ia). Es decir, vamos a considerar los efectos de las componentes de todas
las fuerzas sobre ese plano y obviaremos el efecto del resto de las componentes.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 140

3.2. PARENTESIS TENSORIAL

Como observamos en la figura 3.1 Ib y Ic, si cortamos la superficie en dos lneas (AB y A0 B 0 ), podemos
ver que el efecto del conjunto de fuerzas externas es distinto sobre P en la direccion perpendicular a cada una
de esas lneas. De hecho, al cortar la superficie las fuerzas que aparecen sobre las lneas AB (y A0 B 0 ) eran
fuerzas internas y ahora son externas al nuevo cuerpo cortado. As, estas fuerzas por unidad de longitud2
sobre el punto P existen como un conjunto de fuerzas que generan esfuerzos (stress). Por lo tanto, es claro
que los esfuerzos sobre un punto dependen del punto, de las fuerzas externas y de la direccion del efecto.
Para irnos aclarando consideremos un elemento de area infinitesimal ds sobre la cual act ua un conjunto
de fuerzas externas, las cuales las podemos descomponer como normales y tangenciales a la lnea sobre la
cual est
an aplicadas (ver figura 3.1 cuadrante II). Es costumbre denotar los esfuerzos normales y tangenciales
por y respectivamente.

Y2 = 2 dx X2 = 2 dx

ar


dx


Y3 = 3 dy Y1 = 1 dy

dA = dxdy dy ds dy
X 3 = 3 dy X1 = 1 dy
dx


in

Y4 = 4 dx X4 = 4 dx

Consideramos la segunda ley de Newton aplicada a cada diferencial de masa dm y obtendremos


lim
X 1 dy + 2 dx + 3 dy + 4 dx = 0 = (2 + 4 ) dx + (1 + 3 ) dy ;
Fext
i = dm a = 0
1 dy + 2 dx + 3 dy + 4 dx = 0 = (2 + 4 ) dx + (1 + 3 ) dy

con lo cual
2 = 4 ; 1 = 3

como se est
2 = 4
re 1 = 3
a en equilibrio, tambien la sumatoria de torques se tendra que anular. Esto es
rP
dy
(1 dy) dx

2 (2 dx) 2 = 0
1 = 2 = 3 = 4
dy
(3 dy) dx ( dx) = 0

2 4 2

entonces, nos damos cuenta que existen s olo tres cantidades independientes: dos esfuerzos normales 1 y 2 ;
y un esfuerzo tangencial 1 . Adicionalmente notamos que los esfuerzos tienen que ver con la direcci on de
o

la fuerza y la superficie sobre la cual va aplicada. Con ello podemos dise nar la siguiente notacion para los
esfuerzos: ij . El primer ndice indica la direccion de la fuerza y el segundo direccion de la normal de la
ad

superficie donde esta aplicada. As, tal y como muestra la figura (ver figura 3.1 cuadrante II)
1 xx ; 4 yy ; 2 xy yx
El cambio de signo se debe a lo inc omodo de la notacion: 4 yy ya que la normal de lado 4 apunta
rr

on y. Es importante tambien se
en la direcci nalar que los esfuerzos en cualquier punto contenido en el
diferencial de
area dA = dxdy deben ser considerado constantes, o lo que es lo mismo, que podemos hacer
tender a cero el
area del diferencial y con ello asociar los esfuerzos ij a un punto P contenido en dA sobre
Bo

la cual hemos calculado los esfuerzos.


En esta misma lnea de razonamiento, nos podemos preguntar cual es la expresion de los esfuerzos cuando
se miden respecto a una superficie generica, definida por un vector normal n (ver figura 3.1 cuadrante III).
Es decir, queremos conocer los esfuerzos medidos en el punto P y en la direccion n, es decir, nn .
2 En el caso tridimensional, las fuerzas que generan los esfuerzos ser
an definidas como fuerzas por unidad de
area. Ese caso
lo veremos en la proxima secci
on.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 141

3.2. PARENTESIS TENSORIAL

ar
in
Figura 3.2: Tensor de Esfuerzos en 3 dimensiones

lim
Tendremos que

x xx dy + xy dx = nn ds cos() + sn ds sen() ; y yy dx + yx dy = nn ds sen() sn ds cos()

Ahora bien, dado que dy = ds cos() y dx = ds sen(), entonces podemos expresar

nn = xx cos2 () + xy sen() cos() + yx sen() cos() + yy sen2 ()


re
sn = xx sen() cos() + xy sen2 () yx cos2 () yy sen() cos()
rP
y si ahora nos damos cuenta que si construimos una matriz
 x
An Axs
  
cos() sen()
Aij = =
Ayn Ays sen() cos()

entonces podemos expresar


o

nn = Axn Axn xx + Axn Ayn xy + Ayn Axn yx + Ayn Ayn yy nn = Ain Ajn ij con i, j = n, s
ad

sn = Axs Axn xx + Axs Ayn xy + Ays Axn yx + Ays Ayn yy sn = Ais Ajn ij con i, j = n, s

es decir,
rr

kl = Aik Ajl ij , con i, j, k, l = n, s .


Como ya hemos mencionado, y veremos mas adelante con mas detalle, cualquier objeto que transforme
como kl = Aik Ajl ij lo llamaremos tensor de segundo orden.
Bo

El caso 3D
Podemos proceder como en el caso anterior estableciendo las condiciones de equilibrio
X X
Fext
i =0 y ext
i = 0,

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 142

3.2. PARENTESIS TENSORIAL

con ello construimos un volumen (c


ubico) diferencial y construimos los esfuerzos normales y tangenciales,
los cuales ser
an
xx dydz; yy dxdz; zz dxdy; xz dxdy; yz dxdy; xy dxdz;
Siguiendo el mismo proceso que involucra imponer el equilibrio, es facil demostrar que al igual que el caso
anterior, el tensor de esfuerzos ij cumple con:
xz = zx ; yz = zy ; xy = yx .
Tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien el tensor
de esfuerzos ij viene representado por una matriz 3 3 y por lo tanto tiene 9 elementos, solo 6 son
independientes. Vayamos ahora el caso general para un tensor de esfuerzos en un medio elastico. Para ello

ar
construimos un tetraedro regular tal y como muestra la figura 3.2, y sobre su cara generica asociada a un
vector normal n una fuerza F


Fx = xn dSn

in



i
F = F ii = Fx i + Fy j + Fz k Fy = yn dSn F i = ji nj dS F = dS






Fz = zn dSn

lim
de esta manera se especifica como la fuerza act
ua sobre un determinado elemento de superficie. Es claro que
la condici
on de equilibrio se traduce en
X 1 1 1
Fxi = 0 xn dSn xx dy dz xy dx dz xz dx dy = 0
2 2 2

X
Fyi = 0
1
re1 1
yn dSn yx dy dz yy dx dz yz dx dy = 0
2 2 2
rP
X 1 1 1
Fzi = 0 zn dSn zx dy dz zy dx dz zz dx dy = 0
2 2 2
Si consideramos la proyeccion de dSn sobre cada uno de los planos del sistema cartesiano tendremos que
dS n cos (i; n) = 12 dy dz = dS n Axn


o




n 1
dS cos (j; n) = 2 dx dz = dS An n y
xn = xx Axn + xy Ayn + xz Azn
ad





dS n cos (k; n) = 12 dx dy = dS n Azn

y equivalentemente
yn = yx Axn + yy Ayn + yz Azn ; y zn = zx Axn + zy Ayn + zz Azn ,
rr

las cuales se conocen como las relaciones de Cauchy, y representan los esfuerzos sobre la superficie con normal
n.
Bo

Ahora bien, dado que F = dS es una relacion vectorial podemos proyectar en la direccion u m
m ( dS) F m = nm dS n = im Ain dS n = im Ain dS n
 
m F = u
u

mn dS n = mi Ain dS n mn dS n = ki Akm Ain dS n


 
con i, j = x, y, z
Una vez m
as vemos que transforma como un tensor.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 143

3.2. PARENTESIS TENSORIAL

2. El Tensor de inercia
Consideremos el caso de un sistema de n partculas. La cantidad de movimiento angular para este sistema
vendr
a dada por X 
L= m(i) r(i) v(i)
i

donde hemos indicado que la iesima partcula que esta en la posicion r(i) tiene una velocidad v(i) . Si las
distancias entre las partculas, y entre las partculas con el origen de coordenadas, es constante, podremos
expresar la velocidad de cada una de ellas como

v(i) = r(i) , (Por que?)

ar
Donde es la velocidad angular instantanea del sistema. Entonces tendremos que
X   X   
L= m(i) r(i) r(i) = m(i) r(i) r(i) r(i) r(i) ,

in
i i

y para cada partcula se cumple que las componentes de la cantidad de movimiento angular seran

lim
X h   i
Lk = m(i) k r(i)
m k
r(i)m r(i) m r(i)m .
i

k
Si vemos que (i) = lk (i)
l
entonces
" #
h   i    
L = k
X

i
m(i) lk l m
r(i) r(i)m k
r(i) m
r(i)m
re = l
(i)
|
X

i
m(i) lk m
r(i) r(i)m
{z
Ilk
k
r(i) r(i)l
}
rP
es decir X    
Lk = (i)
l
Ilk , donde Ilk = m(i) lk r(i)
m k
r(i)m r(i) r(i)l .
i

El objeto Ilk
se conoce como el tensor de inercia y corresponde a 9 cantidades (a pesar que solo 6 son
independientes porque es un tensor simetrico). En coordenadas cartesianas se vera de la siguiente forma:
o

P    
2 2
P P
m(i) y(i) + z(i) i m(i) x(i) y(i) i m(i) x(i) z(i)
ad


Ixx Ixy Ixz i



k
P  P 
2 2
 P 
Il = Iyx Iyy Iyz = i m(i) x(i) y(i) i m(i) x(i) + z(i) i m(i) y(i) z(i)




rr

Izx Izy Izz P  P  P 


2 2

i m(i) x(i) z(i) i m(i) y(i) z(i) i m(i) z(i) + y(i)

Por ahora, nos contentaremos en suponer que esta construccion es un tensor y lo demostraremos m
as
Bo

adelante.

Ejemplo: La ilustraci on mas sencilla de que la masa en rotacion se comporta como un tensor y no como
un escalar lo vemos en la rotaci
on de dos masas iguales: m1 y m2 (con lo cual m1 = m2 = m) unidas por
una varilla sin masa de longitud l. Si el sistema (masas + varillas) se encuentra girando alrededor su centro

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 144

3.2. PARENTESIS TENSORIAL

de masa y ambas masas se encuentran sobre el plano xy, vale decir que la barra sin masa forma un angulo
de = 2 con el eje z, entoces tendremos que

l l dr l d l d
r= cos() i + sen()j v= = sen() i + cos() j
2 2 dt 2 dt 2 dt
con lo cual
 2
l d
L = m1 (r1 v1 ) + m2 (r2 v2 ) = m (r1 v1 ) + m ((r1 ) (v1 )) = 2m (r1 v1 ) = k
2 dt
ya que
m1 = m2 = m; r2 = r1 y v2 = v1 .

ar
3.2.9. Ejercicios

in
1. Un problema de gran interes consiste en lo siguiente. Consideremos un tensor B con componentes Bij ,
un tensor A con componentes Ai y el producto

Bij Aj = Ci

lim
Esta ultima expresi
on se puede interpretar como la accion de B sobre A que consiste en producir un
nuevo tensor C que tendr a una magnitud y una direccion diferente a A. Podremos estar interesados
en encontrar todos los vectores que NO son rotados por B, es decir, que estaramos interesados en
resolver la ecuaci
on:
Bij Aj = Ai , donde es un escalar

direcciones principales o caractersticos. Mas a


re
Si estos vectores existen se denominan vectores caractersticos o autovectores de B y sus direcciones:
un, los ejes determinados por las direcciones principales
se denominan ejes principales de B. Los valores de las componentes Bij en el sistema de coordenadas
rP
determinado por los ejes principales se denominan valores caractersticos o autovalores de B.
Ahora, consideremos un sistema conformado por n partculas de masas iguales: m1 , m2 , . . . mn = m,
distribuidas en el plano x y, y sea Iij el tensor de inercia con respecto a un sistema rectangular de
coordenadas. Por ser un caso en 2D, el tensor de inercia tendra solamente cuatro componentes.
o

a) Encuentre: I11 = Ixx , I22 = Iyy y I12 = Ixy = I21 = Iyx


b) Si un vector A coincide con el eje principal de Iij entonces debe satisfacer la ecuacion
ad


j j j (I11 )A1 + I12 A2 = 0
Ii Aj = Ai (Ii i )Aj = 0
I12 A1 + (I22 )A2 = 0
rr

on (no trivial) para , es decir, resuelva: 2 (I11 + I22 ) + I11 I22 (I12 )2 = 0.
Encuentre la soluci
c) C
omo se interpreta el hecho de que I12 = 0?
Bo

d ) Si I12 6= 0 y 1 6= 2 , entonces, para cada valor de se puede encontrar un vector (autovector)


A(1 ) y A(2 ) resolviendo el sistema de dos ecuaciones. Demuestre que las direcciones de estos
vectores tienen pendientes, respecto al sistema de coordenada, dadas por
1 I11 2 I11
tan(1 ) = , tan(2 ) =
I12 I12

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 145
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

e) Demuestre que
2I12
tan(21 ) = tan(22 ) = , donde 2 = 1 +
I11 I22 2
es decir: A(1 ) A(2 ) .
f ) Cuales son las componentes del tensor de inercia en el sistema de coordenadas determinado por
los ejes principales?

2. Demuestre que si Sji representa un tensor simetrico y Aij uno antisimetrico, entonces, Sji Aji = 0
3. Dados los tensores

1/2 1 3/2 1/3 1 0 0

ar
Rji = 2 5/2 3 , T i = 2/3 , gji = g ij = gij = 0 1 0
7/2 4 9/2 1 0 0 1

in
Encuentre:
a) La parte simetrica Sji y antisimetrica Aij de Rji
b) Rkj = gik Rji , Rki = g jk Rji , Tj = gij T i Que se concluye de estos calculos?

lim
c) Rji Ti , Rji T j , Rji Ti T j
d ) Rji Sij , Rji Aji , Aji T i , Aji T i Tj
e) Rji 2ji Rll , (Rji 2ji Rll )Ti , (Rji 2ji Rll )Ti T j .

3.3.
3.3.1.
Repensando los vectores nuevamente
Vectores, covectores y leyes de transformaci
on
re
rP
Hemos visto que un determinado vector |ai V puede expresarse en una base ortonormal {|ej i} como:
aj |ej i donde las aj son las componentes del vector contravariantes en la base que se ha indicado. En general,
como es muy largo decir componentes
 del vector contravariante uno se refiere (y nos referiremos de ahora
en adelante) al conjunto aj como un vector contravariante obviando la precision de componente, pero
realmente las aj son las componentes del vector.
o

Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de referen-
cias. Con ello tendremos (algo que ya sabamos) que un vector se puede expresar en distintas bases y tendr a
ad

distintas componentes referidas a esa base

|ai = aj |ej i = a
j |ej i .
rr

As una misma cantidad fsica vectorial se vera distinta (tendra distintas componentes) desde diferentes
sistemas de coordenadas. Las distintas visiones estan conectadas mediante un transformacion de sistema
de referencia como veremos m as adelante.
Igualmente hemos dicho que una
iforma diferencial hb| V es susceptible de expresarse en una base
Bo


i

e del espacio dual V como bi e y, como el espacio esta equipado con un producto interno, entoces:

ha |bi = hb |ai = bi ei aj |ej i = bi aj ji = ai bi



 

Con lo cual avanzamos otra vez en la interpretacion de cantidades fsicas: una cantidad fsica escalar se ver
a
igual (ser
a invariante) desde distintos sistemas de referencia.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 146
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Adem
as sabemos que unas y otras componentes se relacionan como
i
a = Aij aj

i

e |ai = aj ei |ej i = aj ji = a j ei |ej i



= Aij aj

i

j ei |ej i = a
j ji = aj ei |ej i
i
e |ai = a a

donde claramente
1
e |ej i = Aij Aik Akj = ji Aij = Aij

i
e |ej i = Aij ;

i
y

Diremos entonces que aquellos objetos cuyas componentes transforman como ai = Aij a j o equivalentemente
i = Aij aj ser
a an vectores, o en un lenguaje un poco mas antiguo, vectores contravariantes3 .

ar
Tradicionalmente, e inspirados
en la ley de transformacion, la representacion matricial de las componentes
contravariantes de un vector, ei |ai = aj , para una base determinada {|ej i} se estructuran en una columna

in
a1

a2
|ai ai = ei |ai

con i = 1, 2, 3, , n

..
.

lim
an

De la misma manera, en el espacio dual, V


, las formas

diferenciales se podran expresar en termino de
una base de ese espacio vectorial como hb| = bi ei = bi ei . Las {bi } seran las componentes de las formas
diferenciales o las componentes covariantes de un vector |bi, o dicho rapidamente un vector covariante o
covector. Al igual que en el caso de las componentes contravariantes las componentes covariantes transforman

hb |ej i = bi ei |ej i = bi ji = bi ei |ej i




re
de un sistema de referencia a otro mediante la siguiente ley de transformacion:

bj = bi Aij

rP

hb |ej i = bi ei |ej i = bi ji = bi ei |ej i

bj = bi Aij


Otra vez, objetos cuyas componentes transformen como bj = bi Aij los denominaremos formas diferenciales o
vectores covariantes o covectores y ser
an representados matricialmente como un arreglo tipo fila
o


hb| bi = hb |ei i con i = 1, 2, 3, , n b1 b2 bn
ad

3.3.2. Transformaci
on de los vectores base
Consideremos dos bases {|ei i} y {|ei i} con un origen com un en el mismo punto. Cualquier vector |ai de
la primera base se puede expandir respecto a la segunda base (o inversamente). Las bases se relacionan de
rr

la manera siguiente
j |ej i
|ei i = i
j con (i, j = 1, 2, 3, ...) se les denominaran los coeficientes de la transformacion directa. De
a las cantidades i
Bo

igual forma, es posible representar la base {|ei i} en terminos de la base {|ei i}

|ei i = ji |ej i
0 0 0
3 Algunos on para las transformaciones: ai = Aij 0 aj y ai = Aij aj , por lo que
autores prefieren utilizar la siguiente notaci
0
ji = Aik0 Akj

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 147
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

donde a las cantidades ji se les denomina: los coeficientes de la transformacion inversa.


Existe una relaci
on simple entre el conjunto de coeficientes:
1 |e1 i +
|ei i = 2 |e2 i + 3 |e3 i +
i i i
1 1 |e1 i + 2 |e2 i + 3 |e3 i + + 2 1 |e1 i + 2 |e2 i + + 3 1 |e1 i + 2 |e2 i +
     
= i 1 1 1 i 2 2 i 3 3
h i h i h i
= 1 1 +
2 1 + 3 1 + |e1 i + 1 2 + 2 2 + 3 2 + |e2 i + 1 3 +
2 3 + |e3 i +
i 1 i 2 i 3 i 1 i 2 i 3 i 1 i 2

= j 1 |e1 i +
j 2 |e2 i +
j 3 |e3 i + =
j k |ek i = k |ek i
i j i j i j i j i

Donde:
j k = k
i j i

ar
Si repetimos los c
alculos partiendo de la transformacion inversa, entonces resultara que
j = k
kj |ei i = ik |ek i .
i i

in
Consideremos ahora el problema de expandir un vector |ai con respecto a una base no ortogonal {|wi i}:

|ai = ai |wi i

lim
Por simplicidad tomemos el caso R3 , de manera que tenemos un vector A = ai ei (i = 1, 2, 3). Al proyectar
el vector A sobre los ejes de alg
un sistema de coordenadas, es posible resolver el sistema de tres ecuaciones
ognitas ai . Este metodo se conoce como el metodo de las bases recprocas.
que resulta para las inc
Las bases ei y ei se llaman recprocas si satisfacen la condicion

re
ei ej = ij .

Esto lo significa es que cada vector de una de las bases es perpendicular a los otros dos de la otra base.
Por ejemplo, el vector e1 ser
a perpendicular a e2 y e3 :
rP
e1 = (e2 e3 ) ,

como e1 e1 = 1, entonces:
1 e2 e3
e1 (e2 e3 ) = 1 = e1 = .
o

e1 (e2 e3 ) e1 (e2 e3 )
ad

Por lo tanto, es f
acil ver que
ej ek
ei = ,
ei (ej ek )
donde i, j, k son permutaciones cclicas de 1, 2, 3. Notemos tambien que V = ei (ej ek ) es el volumen del
rr

paraleleppedo que soportan los vectores {ei } y que ademas se puede obtener una expresion analoga para
los {ei } en termino de los {ei }.
La base recproca de la base ortonormal {ii } es la misma base ortonormal: ei = ii y si la base original o
Bo

directa es dextr ogira la recproca tambien lo sera.


Al ser {ei } y {ei } recprocas, entonces

A = ai ei A ei = ai ei ei = ai

esto significa que


A = (A ei )ei , i = 1, 2, 3 .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 148
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Tal vez, es bueno recordar que un mismo vector se puede representar en ambas bases:

A = ai ei = ai ei

a traves de sus componentes contravariantes ai o covariantes ai .


Por otro lado, si A se expresa en un sistema de coordenadas definido por una base ei y queremos saber
como se escribe en otra base ei , entonces:

A = ai ei A e
j = ai ei e
j a j ai
j = i

de la manera equivalente:
A = ai ei A e
j = ai ei e
j a i ai
j = j

ar
El lector puede demostrar que: aj = ji a i y aj = ij a
i .
Para finalizar, es f
acil obtener las relaciones entre componentes covariantes y contravariantes, veamos:

in
A ei = aj (ei ej ) A ei = aj (ei ej )

Si definimos: ei ej = gij , ei ej = g ij y ei ej = gji = ji , entonces:

lim
ai = gij aj ai = g ij aj .

Y si las bases son ortogonales, tanto las ei como las ei , entonces: gij = g ji = 0 (i 6= j), lo que resulta en:

a1 = g11 a1 , a1 = g 11 a1 , a2 = g22 a2 , a2 = g 22 a2 , a3 = g33 a3 , a3 = g 33 a3 .

3.3.3. Cartesianas y polares, otra vez


El ejemplo m as simple, y por ello, cl
re
asico y emblematico de lo anterior lo constituye las expresiones de
rP
un mismo vector en dos sistemas de coordenadas en el plano: Cartesianas {|ii , |ji} y polares {|ur i , |u i}.
Esto es, para un vector |ai:

|ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i y 1 |e1 i + a


|ai = ar |ur i + a |u i = a 2 |e2 i .

Al expresar una base en terminos de la otra obtenemos


o

|ur i = cos() |ii + sen() |ji y |u i = sen() |ii + cos() |ji ,


ad

con lo cual
   

i
i
i = hur |ii hur |ji cos() sen()
e |ej i = j j
hu |ii hu |ji sen() cos()
rr

Para la transformaci
on inversa se tiene
   
hi |ur i hi |u i cos() sen()
Bo

ei |ej i = ij ij =


hj |ur i hj |u i sen() cos()

y por lo tanto:

|ii = cos() |ur i sen() |u i y |ji = sen() |ur i + cos() |u i .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 149
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Cumpliendo ademas con


    
cos() sen() cos() sen() 1 0 k = i .
= ik j j
sen() cos() sen() cos() 0 1

Por otro lado, si

1 |
|ai = ar |ur i + a |u i = a 2 |e2 i = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i
e1 i + a

tendremos que
      
i aj ar cos() sen() ax ax cos() + ay sen()
i =
a j = =
a sen() cos() ay ax sen() + ay cos()

ar
con lo cual
ar = ax cos() + ay sen() y a = ax sen() + ay cos() .

in
Del mismo modo
      
ax cos() sen() ar ar cos() a sen()
ai = ij a
j = =
ay sen() cos() a ar sen() + a cos()

lim
y
ax = ar cos() a sen() y ay = ar sen() + a cos() .

Practicando con Maxima:

re
En este ejercicio veremos la manera de construir la matriz de transformacion entre bases y el calculo de
las bases recprocas.
rP
1. Si tenemos una transformaci
on entre bases

|e1 i = |ji + |ki , |e2 i = |ii + |ki , |e3 i = |ii + |ji .

Para calcular la matriz de transformacion


j |ij i ,
o

|ei i = i

podemos obrar de la manera siguiente. Primero introducimos los vectores como una matriz y luego
ad

calculamos la transpuesta:

(%i1) v1:[0,1,1]$v2:[1,0,1]$v3:[1,1,0]$
rr

(%i2) lambdaij:transpose(matrix(v1,v2,v3));

0 1 1
Bo

( %o2) 1 0 1
1 1 0

La matriz de transformaci
on inversa
|ii i = ji |ej i ,
es simplemente la matriz inversa

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 150
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

(%i3) lambda_ji:invert(%);
1 1 1

2 2 2
( %o3) 21 12 1
2
1 1
2 2 12

Es claro que jk
k = j
i i

(%i4) lambda_ij.lambda_ji;

1 0 0

ar
( %o4) 0 1 0
0 0 1
(%i5) kill(all)$

in
2. Con el uso del paquete vect podemos hacer algunos calculos sencillos con vectores, como por ejemplo,
el c
alculo de las bases recprocas.

lim
(%i1) load(vect)$

Dado el siguiente conjunto de vectores

b1 = e1 = i + j + 2k , b2 = e2 = i j k , b3 = e3 = 2i 2j + k

Calcularemos la base recproca a traves de re ej ek


rP
ei = ,
ei (ej ek )

(%i2) b1:[1,1,2];

( %o2) [1, 1, 2]
o

(%i3) b2:[-1,-1,-1]
ad

( %o3) [1, 1, 1]

(%i4) b3:[2,-2,1];
rr

( %o4) [2, 2, 1]
Bo

Podemos comprobar si la base original bi = es ortogonal calculando sus productos escalares:

(%i5) b1.b2; b1.b3; b2.b3;

( %o5) 4
( %o6) 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 151
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

( %o7) 1

Por lo tanto, no son ortogonales.


Ahora, los vectores recprocos ei = se calculan de la manera siguiente: (Para el producto vectorial
A B se usa el comando: express(AB) )

(%i8) e1:express(b2~b3)/(b3.(express(b1~b2)));
 
3 1
( %o8) , ,1
4 4

ar
(%i9) e2:express(b3~b1)/(b3.(express(b1~b2)));
 
5 3
( %o9) , , 1
4 4

in
(%i10)e3:express(b1~b2)/(b3.(express(b1~b2)));
 

lim
1 1
( %o10) , ,0
4 4

La base recproca es entonces


3 1 5 3 1 1
e1 = i j + k , e2 = i j + k , e3 = i j

Que tampoco es ortogonal:


4 4
re4 4 4 4
rP
(%i11)e1.e2; e1.e3; e2.e3;

17
( %o11)
8
1
( %o12)
8
o

1
( %o13)
8
ad

El tensor metrico para la base original gij = ei ej lo podemos construir de la manera siguiente:

(%i14)gb:matrix([b1.b1,b1.b2,b1.b3],[b2.b1,b2.b2,b2.b3],[b3.b1,b3.b2,b3.b3]);
rr


6 4 2
( %o14) 4 3 1
Bo

2 1 9

Para la base recproca g ij = ei ej

(%i15)ge:matrix([e1.e1,e1.e2,e1.e3],[e2.e1,e2.e2,e2.e3],[e3.e1,e3.e2,e3.e3]);

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 152
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

13 17
18

8 8
( %o15) 17 25
18
8 8
18 18 1
8

De manera que: ei ej = gji = ji :

(%i16)gb.ge;

1 0 0
( %o16) 0 1 0
0 0 1

ar
3.3.4. Repensando las componentes

in
En general, podemos pensar que las componentes de los vectores pueden ser funciones de las otras.
Consideremos el ejemplo anterior con esta vision para estudiarlo con mas detalle en dos y tres dimensiones.

Caso bidimensional

lim
Tendremos que un punto en el plano viene representado en coordenadas cartesianas por dos n umeros
(x, y) y en coordenadas polares por otros dos n
umeros (r, ). Siguiendo el ejemplo anterior un punto
P , en el plano lo describimos como

|P i = rP |ur i = xP |ii + yP |ji .

Veamos como est


transformaci
re
an relacionadas estas dos descripciones, para este caso en el cual las ecuaciones de
on son
rP
  
xP = xP (r, ) = x1 = x1 x 1 , x
2 1 = x
1 x1 , x2

rP = rP (x, y) = x

yP = yP (r, ) = x2 = x2 x
1 , x2 2 = x
= P (x, y) = x 2 x1 , x2

y explcitamente
q
r = px2 + y 2 2 2
xP = rP cos() x1 = x
1 cos(
x2 ) 1 =
x (x1 ) + (x2 )

o

P P P
2 1 y
x2 )
  2
yP = rP sen() x = x sen( = arctan yP 2 = arctan xx1
x
xP
ad

Es claro que ambas coordenadas est


an relacionadas y que se puede invertir la relacion
  
1 = x
1 x1 , x2 
 1
x x = x1 x 1 , x
2 
,
2 = x
2 x1 , x2 x2 = x2 x1 , x
2
rr

Si se piden cosas razonables:


Bo

que las funciones xi = xi (


xm ) y x
j = x
j (xm ) sean al menos C 2 (funcion y derivada continua)
que el determinante de la matriz Jacobiana sea finito,
!
xi x k
det 6= 0.
j
x

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 153
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

M
as a
un, si
xi xi x
j xi j
xi = xi x
j xk = ki dxi =

k
= d
x ,
x xk
x j j
x
con lo cual intuimos dos cosas:
1. que las componentes de un vector, |P i, deben transformar bajo un cambio de coordenadas como

i xi x k j
p = p .
xj
xi i
x
2. Las matrices jacobianas k
x
y xk
son una la inversa de la otra.

ar
Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz jacobiana:

i 1 2
 x1 (x
1 ,
x2 ) x1 (x
1 ,
x2 )
x2 ) x1 sen(
x2 )
 
x x ,x
cos(

in
1
x 2
x = 2 1
j
x x2 (x
1 ,
x2 ) x2 (x
1 ,
x2 ) sen(
x ) x cos(x2 )
1
x 2
x

y seguidamente, identificando |P i = xP |ii + yP |ji = rP |ur i

lim

xi x 1 , x
2 j
 1  
x2 ) x1 sen(
x2 )
 1 
i p cos( p
p = p
=
j
x p2 x2 ) x
sen( 1 cos(
x2 ) 0

Igualmente, si calculamos la inversa de la matriz jacobiana

i
x x 1
,x
j
x
2
 !1
=
cos(
sen(
x1
2
x ) sen(
x2 )
1
x
2
x )
x2 )
cos(
!
=
x2
(x

1 2
x2
1

1 ) +(x2 )2

2 2
re (x ) +(x )
x2
(x1 )2 +(x2 )2
x1
(x1 )2 +(x2 )2


rP
tendremos

x1 x2 
p1 p1 i x1 , x2 j
   
(x1 )2 +(x2 )2 (x1 )2 +(x2 )2 i x
= p = p .
p2

0 x2 x1 xj
(x1 )2 +(x2 )2 (x1 )2 +(x2 )2
o

Es decir q
2 2
p
1
ad

= (x1 ) + (x2 )
x r= x2 + y 2 y 0 = 0.

Caso tridimensional

Consideremos nuevamente dos sistemas
 de coordenadas: uno cartesiano x1 = x, x2 = y, x3 = z y otro
1 = r, x
2 = , x
3 = .
rr

esferico x
Tal y como hemos supuesto anteriormente el punto P vendra descrito por
Bo

|P i = rP |ur i = xP |ii + yP |ji + zP |ki

de nuevo
 
x = x (r, , ) = x1 = x1 x
1 , x
2 , x
3 1 = x
r = r (x, y, z) = x 1 x1 , x2 , x3 
1 , x
y = y (r, , ) = x2 = x2 x 2 , x
3  2 = x
= (x, y, z) = x 2 x1 , x2 , x3 
3 3 1 2
z = z (r, , ) = x = x x ,x ,x 3 = (x, y, z) = x 3
=x 3 x1 , x2 , x3

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 154
3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Las ecuaciones de transformaci


on seran

xP = rP sen() cos() x1 = x
1 sen(
x2 ) cos(
x3 )
2 1 2
yP = rP sen()sen() x =x sen(x )sen( x3 )
3 1 2
zP = rP cos() x =x cos(x )

y q
2 2 2
p 1
r = x 2 + y2 + z2 x
= (x1 ) + (x2 ) + (x3 )


P P  P P  2
= arctan xyPP

2 = arctan xx1
x
 2 2   
xP +yP 3 (x1 )2 +(x2 )2
= arctan x
= arctan


zP x3

ar
Con lo cual la matriz de las derivadas para esta transformacion en particular sera:
 sen () cos () r sen () sen () r cos () cos ()
xi x
1 , x
2 , x
3
= sen () sen () r sen () cos () r cos () sen ()

in
xj
cos () 0 r sen ()
es decir:

lim
     
2 cos x
3  x1 sen x2 sen x
3 1 cos x
2 cos x
3 

i
x x
,x1
,x
2 3
 sen x x
= sen x2 sen x
3 x1 sen x2 cos x3 1 cos x
x 2 sen x
3
j
x
cos x2 0 x1 sen x
2
y su inversa
sen () cos () sen () sen () cos ()

i x1 , x2 , x3
x
xj


=


re
rsen()
sen()
cos()
r sen() 0





rP
cos() cos() cos() sen()
r r sen()
r
o lo que es lo mismo
x y z
x2 +y 2 +z 2 x2 +y 2 +z 2 x2 +y 2 +z 2

i x1 , x2 , x3
o


x y x
0

j
= x2 +y 2 x2 +y 2
x

ad



xz yz x2 +y 2
(x2 +y 2 +z 2 ) x2 +y 2 (x2 +y 2 +z 2 ) x2 +y 2 (x2 +y 2 +z 2 )

Dejaremos al lector comprobar que, efectivamente,


rr

 
i xi x1 , x
2 , x
3 j i i x1 , x2 , x3 j
x
p = p p = p .
xj xj
Bo

3.3.5. Ejercicios
1. En el caso 3D tenemos que si {ei } define un sistema de coordenadas (dextrogiro) no necesariamente
ortogonal, entonces, demuestre que
ej ek
ei = , i, j, k = 1, 2, 3 y sus permutaciones cclicas
ei (ej ek )

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 155
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

2. Demuestre que si los volumenes V = e1 (e2 e3 ) y V = e1 (e2 e3 ), entonces

V V = 1

3. Que vector satisface A ei ? Demuestre que A es u


nico.
4. Demuestre que
gij = ei ej

5. Si la base {ei } es ortogonal, demuestre que


a) gij es diagonal.

ar
b) g ii = 1/gii (no hay suma).
c) |ei | = 1/|ei |.
6. Encuentre el producto vectorial de dos vectores A y B que estan representados en un sistema de

in
coordenadas oblicuo.
7. Dada la base:
e1 = 4i + 2j + k , e2 = 3i + 3j , e3 = 2k

lim
a) Encuentre las bases recprocas {ei }.
b) Encuentre las componentes de la metrica gij , g ij y gji .
c) Encuentre las componentes covariantes y contravariantes del vector A = i + 2j + 3k.

3.4. Transformaciones, vectores y tensores re


En general las afirmaciones anteriores se pueden generalizar considerando que las coordenadas que definen
rP

un determinado punto, P, expresado en un sistema de coordenadas particular, son x1 , x2 , , x 
n
y las
1 2 n
coordenadas de ese mismo punto P, expresado en otro sistema de coordenadas es x , ,x
,x . Ambas
coordenadas estaran relacionadas por
 
1 = x1 x1 , x2 , , xn 
1
x
x = x1 x 1 , x2 , , x
n 
2 = x
x 2 x1 , x2 , , xn x2 = x2 x 1 , x2 , , x
n

o

.. ..
.


.
ad


n = xn x1 , x2 , , xn
n
x x = xn x 1 , x
2 , , x
n

 
i = x
es decir, x i xj xi = xi x j con i, j = 1, 2, 3, , n. Otra vez, solo exigiremos (y es bastante)
que:
rr

1. Las funciones xi = xi (
xm ) y x
j = x
j (xm ) sean al menos C 2 (funcion y derivada continua)
2. Que el determinante de la matriz jacobiana sean finito y distinto de cero, esto es
Bo

x1 x1 x 1


x1 x2 x n

 i m 
x (
x ) x21 x22

x 2

xn 6= 0 xi = xi (
det j
6
= 0 x x xm ) xj = x
j (xm )
x
. .. ..
.. . .

xn xn n
x
x1 x2 xn

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 156
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Ahora bien, una vez m


as, derivando y utilizando la regla de la cadena
xi xi x
k xi k
xi = xi x
j (xm ) = li dxi =

l
= k l
d
x ,
x x
x k
x
como hemos comprobado para los dos casos particulares estudiados con anterioridad. De ahora en adelante
tendremos las siguientes ReDefiniciones:

Un conjunto de cantidades a1 , a2 , , an se denominar
 an componentes contravariantes de un vector
|ai V en un punto P de coordenadas x1 , x2 , , xn si

1. dada dos bases ortonormales de vectores coordenados. {|e1 i , |e2 i , |en i} y {|e1 i , |e2 i , |en i}
se cumple que

ar

i i


ei ai = ai

|ai = ai |ei i = a
i |ei i i = aj ei |ej i

a
e ai = a

in

2. o equivalentemente, bajo una transformacion de coordenadas xi = xi x j con i, j = 1, 2, 3, , n.,
estas cantidades transforman como
i k
x xi k xi x
k

lim
i =
a k
a ai = a
con = li
x k
x xl
x k

i
x xi
y donde las cantidades xk
y k
x
deberan ser evaluadas en el punto P .

Un conjunto de cantidades {b1 , b2 , , bn } se denominar an componentes covariantes de un vector


hb| V en un punto P de coordenadas x1 , x2 , , xn si



re



1. dada dos bases de formas e1 , e2 , hen | y e1 , e2 , hen | se cumple que

hb| ei = bi

rP
bi = bj hej ei .

i
i
hb| = bi e = bi e

i i
hb| e = b

2. o equivalentemente, bajo una transformacion de coordenadas xi = xi x j (con i, j = 1, 2, 3, , n)
estas cantidades transforman como
i
i
bk = x bi bk = x k
xi x
bi con = li
o

k
x xk k xl
x
i
x xi
ad

y donde las cantidades: xk


y k
x
deberan ser evaluadas en el punto P .

Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para de formas
diferenciales {hxm (1)| , hy n (2)|} hemos definido las componentes contravariantes de un tensor
rr

hx (1)| hyj (2)|


i

T ij = T , T ij T 11 , T 12 , , T 1n , T 21 , T 22 , , T 2n , , T nn
 
Bo

1 2 n

ahora, en esta visi
on, las componentes contravariantes en un punto P de coordenadas
 x , x , , x ,
an aquella que bajo una transformacion de coordenadas xi = xi x
ser j (con i, j = 1, 2, 3, , n)
transforman como
i x
x j km xi xj km xi x
k
Tij = T T ij
= T con = li ,
xk xm k x
x m k xl
x

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 157
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

i
x xi
donde xk
y k
x
deber
an ser evaluadas en el punto P .
Esto nos permite construir el caso mas general.


Si {|ti (1)i , |uj (2)i , , |vk (m)i} y hxe (1)| , y f (2) , , hz g (n)| son bases para los vectores y las
formas, respectivamente. Las componentes de un tensor

|vk (m)i hxe (1)| hy (2)|


f

|ti (1)i |uj (2)i hz g (n)|
mn
Tijk = T , , , , ; , , ,

1 1 1
 11 21 n n 11 n n

ser
an un conjunto de cantidades T11 , T11 , , T11 , T11 , T21 , , Tm1
, , Tm
m que se

ar
denominaran las componentes contravariantes  y covariantes respectivamente, de un tensor mixto en
un punto P de coordenadas x1 , x2 , , xn .

on de coordenadas xi = xi x
Bajo una transformaci j (con i, j = 1, 2, 3, , n) estas cantidades trans-

in
forman como
i
x j xa
x xd pq xi xj x
a d pq
x
Teg
ik
= T ik
Teg = T
xp xq x
e g ad
x p
x q xe
x xg ad

lim
xi x
k i
x xi
nuevamente con: k xl
x
= li y donde las cantidades xk
y k
x
deberan ser evaluadas en el punto P .

3.4.1. Un ejemplo detallado

vez m
re
Ilustremos ahora las transformaciones de tensores bajo cambios de la base del espacio vectorial. Una
as consideremos dos bases de vectores coordenados {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i , |e3 i} para el
rP
espacio vectorial R3 La expresi on de un determinado tensor en la base sera

2 1 3
{|e1 i , |e2 i , |e3 i} {|ii , |ji , |ki} Tji = 2 3 4
1 2 2
o

Si consideramos una nueva base: |w1 i = |ii, |w2 i = |ii + |ji y |w3 i = |ii + |ji + |ki.
Entonces:
ad


1 1 1

|ei i = |wi i = Aji |ej i Aji =

0 1 1


rr

0 0 1
para ese mismo espacio R3 encontraremos una nueva expresion para Tji en esa base {wi }. Es decir,
necesitamos calcular
Bo

k xj i
x
Tm
k
= T
m j
xi x

k
Notese que esta
nueva
base no es ortogonal , 6 ik , con lo cual no se cumplen muchas cosas,
w |wi i =
k
entre ellas: |wk i w 6= 1.
Veamos entonces como calcular las expresiones de los siguientes tensores: Tij , Tij y Tij .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 158
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Para encontrar Tji expresamos los vectores base: {|e1 i = |ii , |e2 i = |ji , |e3 i = |ki} en terminos de la
base {|w1 i , |w2 i , |w3 i}: |ei i = Aji |wj i, esto es:


|e1 i = |ii = |w1 i 1 1 0



|e2 i = |ji = |w1 i + |w2 i Aji =

0 1 1





|e3 i = |ki = |w2 i + |w3 i 0 0 1

Recordamos que un vector generico transforma de la siguiente manera

|ai = aj |ej i = a
j |wj i

ar
por lo tanto

|ai = aj |ej i = a
1 |w1 i + a
2 |w2 i + a
3 |w3 i = a
1 |e1 i + a
2 (|e1 i + |e2 i) + a
3 (|e1 i + |e2 i + |e3 i)

in
con lo cual

|ai = a1 |e1 i + a2 |e2 i + a3 |e3 i = a


1 + a
2 + a
3 |e1 i + a
2 + a
3 |e2 i + a
3 |e3 i
 

lim
y podemos ver que

x1 x1 x1



1
x = 1; 2
x = 1; 3
x =1
a1 = a
1 + a
2 + a
3

i

i x k

x2 x2 x2
a2 = a
2 + a
3
a3 = a
3

a =
x
k
a







re 1
x

x3
1
x
= 0;

= 0;
2
x

x3
2
x
= 1;

= 0;
3
x

x3
3
x
=1

=1
rP
Es de hacer notar que dado que la base: {|e1 i , |e2 i , |e3 i} {|ii , |ji , |ki} es ortonormal, se tiene que

xi
|ai = aj |ej i = a
i |wi i

i
e ai = aj ei |ej i = aj ji = ai = a
k ei |wk i = ei |wk i


x
k

Este mismo procedimiento se puede aplicar para expresar el vector |ai como una combinacion lineal
o

de los vectores |wj i:


ad

j |ej i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |w1 i + a2 (|w2 i |w1 i) + a3 (|w3 i |w2 i)
|ai = a

esto es
1
x 1
x 1
x

x1 = 1; x2 = 1; x3 =0
rr


1 = a1 a2
a

k i

x
2 2 2
2 = a2 a3
a k =
a a x
x1 = 0; x
x2 = 1; x
x3 = 1
xi
3 = a3
a




Bo

3
x 3
x 3
x

= 0; = 0; =1

x1 x2 x3

N
otese que, como era de esperarse;

1 1 1 1 1 0 1 0 0
xi x
k i
= j 0 1 1 0 1 1 = 0 1 0 .
k xj
x
0 0 1 0 0 1 0 0 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 159
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Con las expresiones matriciales para las transformaciones, estamos en capacidad de calcular, compo-
nente a componente, las representacion del tensor dado en la nueva base

k xj i
x
Tm
k
= T
m j
xi x
con lo cual
1 xj i
x
T11 = T
1 j
xi x
1 x1 1 x2 1 x3 1 1 x1 2 x2 2 x3 2
  
x x
= T + T + T + T + T + T
x1 x 1 1 1 2
x 1 3
x 1 1
x2 x 1 2
x 1 3
x

ar
1 x1 3 x2 3 x3 3
 
x
+ T + T + T
x3 x 1 1 1 2
x 1 3
x

in
Es decir

T11 1 1 T11 + 0 T21 + 0 T31 1 1 T12 + 0 T22 + 0 T32 + 0 1 T13 + 0 T23 + 0 T33
  
=

lim
= T11 T12 = 2 2 = 0

Del mismo modo


1 xj i
x
T21 = T
2 j
xi x
=
1 x1 1
x
x1 x
T +
2 1
1 x1 3
x

x2 1 x3 1
T +
2 2
x
T
2 3
x
x2 3 x3 3
re



+
1 x1 2 x2 2 x3 2
x

T +
2 1
x2 x
T +
2 2
x
T
2 3
x

rP
+ T + T + T
x3 x 2 1 2 2
x 2 3
x

resultando

T21 1 1 T11 + 1 T21 + 0 T31 1 1 T12 + 1 T22 + 0 T32 + 0 1 T13 + 1 T23 + 0 T31
  
=
T11 + T21 T12 + T22 = (2 + 1) (2 + 3) = 2
 
=
o
ad

Se puede continuar termino a termino (el lector debe de terminar de hacer los calculos) o realizar la
multiplicacion de las matrices provenientes de la transformacion de componentes de tensores. Vale decir

 k  j 1 1 0 2 1 3 1 1 1 0 2 3
x
x
Tm
k
Tji

= 0 1 1 2 3 4 0 1 1 = 1 2 4
rr

xi m
x
0 0 1 1 2 2 0 0 1 1 3 5

Hay que resaltar el especial cuidado que se tuvo en la ubicacion de las matrices para su multiplicacion.
Bo

k xj k
Si bien en la expresi on Tm
k
= x
x
i x
m Tj
i
las cantidades x
xi son n
u meros y no importa el orden con el
cual se multipliquen, cuando se escriben como matrices debe respetarse la concatenacion interna de
ndices. Esto es, cuando querramos expresar Tm k
como una matriz, donde el ndice contravariante k
indica filas y el ndice covariante m las columnas, fijamos primero estos ndices y luego respetamos la

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 160
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

concatenacion de ndices covariantes con los contravariantes. Esta es la convencion para expresar la
on de matrices en la notacion de ndices4 . Esto es
multiplicaci

k xj i
 k
 xj
 
k x k x
i
Tm = T Tm = Tj
m j
xi x xi m
x

k
xj
Ahora los objetos x
x
i
i , Tj y m
x pueden ser sustituidos (en sus puestos correspondientes) por su
representaci
on matricial.
Con lo cual hemos encontrado la respresentacion matricial Tij de las componentes del tensor T en la
base {|w1 i , |w2 i , |w3 i};

ar
T1 T21 T21
1
0 2 3
Tij = T12 T22 T32 = 1 2 4 .
T1 T2 T3
3 3 3 1 3 5

in
Para encontrar la expresi on de Tij (Tij = gik Tjk ), requerimos las componentes covariantes y contrava-
riantes del tensor metrico gik que genera esta base. Para ello recordamos que para una base generica,

lim
{|wj i}, no necesariamente ortogonal, de un espacio vectorial con producto interno, podemos definir la
expresion de un tensor que denominaremos tensor metrico como

xm xn
 
0
un tensor del tipo gij = gmn hem |wi i hen |wj i gmn
2 i x
x j

re
Recordemos que la metrica covariante gij de una base ortonormal {|e1 i , |e2 i , |e3 i} {|ii , |ji , |ki} es:

g11 = 1 , g22 = 1 , g33 = 1 , g12 = g21 = g13 = g31 = g23 = g32 = 0 .


rP
Es decir:

1 0 0 1 0 0 1 0 0
gij 0 1 0 ; g ij 0 1 0 ; gji 0 1 0 ;
0 0 1 0 0 1 0 0 1
o

Con lo cual, para el caso de la base generica no ortonormal {|wj i} tenemos dos formas de calcular las
componentes covariantes y contravariantes del tensor metrico. La primera es la forma directa
ad








2
g11 = hen |w1 i hem |w1 i gnm =
e1 |w1 i
e1 |w1 i +
e2 |w1 i
e2 |w1 i +
e3 |w1 i
e3 |w1 i =
e1 |w1 i
= 1
g12 = he |w1 i he |w2 i gnm =
e |w1 i
e |w2 i +
e |w1 i
e |w2 i +
e |w1 i
e |w2 i =
e |w1 i
e1 |w2 i = 1
n m 1 1 2 2 3 3 1

g13 = hen |w1 i hem |w3 i gnm = e1 |w1 i e1 |w3 i + e2 |w1 i e2 |w3 i + e3 |w1 i e3 |w3 i = e1 |w1 i e1 |w3 i = 1
rr

g21 = hen |w2 i hem |w1 i gnm =


e1 |w2 i
e1 |w1 i +
e2 |w2 i
e2 |w1 i +
e3 |w2 i
e3 |w1 i = e1 |w2 i e1 |w1 i = 1
g22 = hen
|w2 i hem
|w2 i gnm

= e1 |w 1 2 2 3 3

22i e |w2 i + e |w2 i e |w2 i + e |w2 i e |w2 i
Bo

1 1 2
= e |w2 i e |w2 i e |w
21i e |w
21i = 2
2

g23 = hen
|w2 i hem
|w3 i gnm =

e |w 2

i e |w3 i + e |w2 i e2 |w3 i + e3 |w2 i e3 |w3 i
= e1 |w2 i e1 |w3 i + e2 |w2 i e2 |w3 i = 2
4 Quiz
a una forma de comprobar si los ndices est an bien concatenados se observa si se bajan los ndices contravariantes
pero se colocan antes que los covariantes. Esto es, Tji Tij . As, la multiplicaci
on de matrices queda representada de la siguiente
forma: Cji = Aik Bjk Cij = Aik Bkj y aqu es claro que ndices consecutivos est an concatenados e indican multiplicaci on.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 161
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

g31 = hen |w3 i hem |w1 i gnm =


e1 |w3 i
e1 |w1 i +
e2 |w3 i
e2 |w1 i +
e3 |w3 i
e3 |w1 i = e1 |w3 i e1 |w1 i = 1
g32 = hen
|w3 i hem
|w2 i gnm = 1 1 2 2 3 3

2e |w3
i 2e |w2 i + e |w3 i e |w2 i + e |w3 i e |w2 i
1 1
= e |w3 i e |w2 i + e
|w3 i e
|w2 i = 2


g33 = hen
|w3 i hem
|w3 i gnm =

e1 |w3
i e1 |w3 i +

e2 |w3
i e2 |w3 i + e3 |w3 i e3 |w3 i
= e1 |w3 i e1 |w3 i + e2 |w3 i e2 |w3 i + e3 |w3 i e3 |w3 i = 3
gij g11 = 1 , g12 = 1 , g13 = 1 , g21 = 1 , g22 = 2 , g23 = 2 , g31 = 1 , g32 = 2 , g33 = 3 .
Consecuentemente podemos arreglarlo como una matriz5 de la siguiente forma

1 1 1 2 1 0
1
gij gji 1 2 2 gij gji = ( gij ) 1 2 1
1 2 3 0 1 1

ar
N
otese que tambien podramos haber procedido, y en terminos matriciales, de la siguiente forma:

1 0 0 1 0 0 1 1 1 1 1 1
xi xj

in
gkm = gij 1 1 0 0 1 0 0 1 1 = 1 2 2
k
x m
x
1 1 1 0 0 1 0 0 1 1 2 3
Nuevamente es bueno aclarar que para conservar la convencion de ndices y poder representar la

lim
multiplicaci
on de matrices, los ndices deben estar consecutivos, por lo tanto, hay que trasponer la
representaci
on matricial para multiplicarlas. Es por eso que en el calculo anterior aparece como primera
matriz la transpuesta de la u
ltima. El calculo se debe hacer como se muestra a continuacion:
xi xj ki gij jm .
gkm = k
gij gkm = ik gij jm gkm =
x
m
x


0 2 3
re
Finalmente, estamos en capacidad de obtener las representaciones matriciales para los tensores: Tij , Tij , Tij .
T
0 1 1

rP
j j
Ti = (Tj ) Ti = 1
i T
2 4 = 2 2 3
1 3 5 3 4 5

1 1 1 0 2 3 2 3 6
Tkm = gkn Tmn
Tkm = 1 2 2 1 2 4 = 4 8 15
1 2 3 1 3 5 5 11 20
o


0 2 3 2 1 0 2 1 1
Tkn = Tmn mk
g Tkn = 1 2 4 1 2 1 = 0 1 2 .
ad

1 3 5 0 1 1 1 0 2

Quisieramos ejemplificar una forma rapida y furiosa (pero sucia) de calcular la metrica generada por
una determinada base generica. La idea es que, violentando toda nuestra notacion e idea de tensores,
rr

construimos la metrica a partir de los vectores base definiendola como gij = hwi |wi i, de esta manera:

hw1 |w1 i hw1 |w2 i hw1 |w3 i
gij = hw2 |w1 i hw2 |w2 i hw2 |w3 i
Bo

hw3 |w1 i hw3 |w2 i hw3 |w3 i



hi |ii hi| [|ii + |ji] hi| [|ii + |ji + |ki] 1 1 1
= [hi| + hj|] |ii [hi| + hj|] [|ii + |ji] [hi| + hj|] [|ii + |ji + |ki] = 1 2 2
[hi| + hj| + hk|] |ii [hi| + hj| + hk|] [|ii + |ji] [hi| + hj| + hk|] [|ii + |ji + |ki] 1 2 3
5 Recordemos que hemos insistido que las matrices representan tensores mixtos

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 162
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Dejamos al lector, la reflexi


on si esta forma rapida de calcular la metrica a partir de unos vectores
base es general o, si en su defecto, es una coincidencia u
nicamente valida para este caso.

Practicando con Maxima:

Maxima contiene un paquete para manipular componentes de tensores: ctensor. La manipulaci on en


componentes se realiza en terminos de matrices. La metrica se almacena en la matriz lg y la metrica inversa
se obtiene y almacena en la matriz ug.
En el ejemplo anterior se especificaba las componentes de un tensor en coordenadas cartesianas, esto es:

2 1 3

ar
To = Tji = 2 3 4 en la base: {|e1 i , |e2 i , |e3 i} {|ii , |ji , |ki}
1 2 2

in
Para luego representarlo en la nueva base: |w1 i = |ii, |w2 i = |ii + |ji y |w3 i = |ii + |ji + |ki. Entonces
necesitamos calcular
k xj i
x
Tm
k
= T Tn = To =
m j
xi x

lim
Como vimos en el ejemplo anterior:

k 1 1 0 i 1 1 1
x x
= = 0 1 1 , = = 0 1 1
xi xk
0 0 1 0 0 1

Respetando la la concatenaci
re
on interna de ndices podemos realizar la multiplicacion de matrices.
(%i1) To:matrix([2,1,3],[2,3,4],[1,2,2]);
rP

2 1 3
( %o1) 2 3 4
1 2 2
(%i2) alpha:matrix([1,-1,0],[0,1,-1],[0,0,1]);

1 1 0
o

( %o2) 0 1 1
0 0 1
ad

(%i3) beta:matrix([1,1,1],[0,1,1],[0,0,1]);

1 1 1
( %o3) 0 1 1
rr

0 0 1
(%i4) Tn:alpha.To.beta;

0 2 3
Bo

( %o4) 1 2 4
1 3 5
Una vez que hemos calculado el nuevo tensor Tn = Tij en la nueva base, podemos calcular: Tij , Tij .
Pero podemos utilizar la metrica para las coordenadas nuevas y con el paquete ctensor hacer las respectivas
contracciones.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 163
3.4. TRANSFORMACIONES, VECTORES Y TENSORES

(%i5) load(ctensor)$
(%i6) ct_coordsys(cartesian3d)$

Introducimos la metrica gik


(%i7) lg:matrix([1,1,1],[1,2,2],[1,2,3]);

1 1 1
( %o7) 1 2 2
1 2 3

ar
Para tener la metrica inversa gik escribimos:
(%i8) cmetric()$
(%i9) ug;

in

2 1 0
( %o9) 1 2 1

lim
0 1 1
Para calcular Tij = gik Tjk escribimos:

(%i10)lg.Tn;

2 3 6
( %o10) 4 8 15
5 11 20
Y para calcular Tij = Tki gkj escribimos:
re
rP
(%i11)Tn.ug;

2 1 1
( %o11) 0 1 2
1 0 2
o

Es posible, y a manera de completar esta primer acercamiento con la librera de tensores, calcular la
metrica a partir de una transformaci
on de coordenadas, como vimos en la Seccion 3.3.4.
ad

(%i1) kill(all)$
(%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]]);

(%i3) cmetric()$
rr

El tensor metrico gij


Bo

(%i4) lg:trigsimp(lg);

1 0 0
( %o4) 0 r2 0
2 2
0 0 r sin
Y la metrica inversa:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 164
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

(%i5) trigsimp(ug);

1 0 0
( %o5) 0 r12 0
1
0 0 r2 sin 2

3.5. Vectores, tensores y espacios pseudo-euclideanos



k
Hasta este punto ha sido casi estetica la descripcion de formas representadas por bra: ha| ak e , en las

ar

k
cuales sus componentes tienen subndices, mientras que los vectores bases, e , deben tener superndices.

Quiza el ejemplo m as emblem atico y simple, donde se observa la diferencia entre formas (bras) y vectores
(kets) es el caso de los espacios minkowskianos. Estos espacios, tambien llamados pseudoeuclideanos, presen-

in
tan una variante en la definicion de producto interno, de tal forma que: hx| xi no necesariamente es positivo,
y si hx| xi = 0 no necesariamente implica que |xi |0i.
La consecuencia inmediata es que la definicion de norma N (|vi i) k|vi ik, que vimos anteriormente, no
necesariamente es positiva. Vale decir que tendremos vectores con norma positiva, k|vi ik > 0, pero tambien

lim
vectores con norma negativa o cero: k|vi ik 0. Con lo cual la definicion de distancia, entendida como la
norma de la resta de vectores, d (|xi , |yi) k|xi |yik, tampoco sera necesariamente positiva. Esto es, que
las distancias seran negativas, positivas o nulas: d (|xi , |yi) < 0, d (|xi , |yi) = 0 y d (|xi , |yi) > 0.
Si extendemos la noci on de distancia para que albergue las posibilidades de distancias nula y negativas,
entonces la definicion del tensor metrico para espacios pseudo-euclideanos debe cambiar tambien.

re
g [|xi i , |xj i] = gij gji

<0

=0
>0
rP
En resumen

<0 <0 <0
hx| xi = =0 d (|xi , |yi) = =0 g [|xi i , |xj i] = =0
>0 >0 >0

o

Este tipo de espacios luce como un excentricidad mas de los matematicos y una curiosidad de estudio es
ad

ver como organizar los conceptos que aprendimos de los espacios euclidianos y extenderlos a otros espacios.
Quiza se hubiera quedado as, como una curiosidad matematica si la Fsica no hubiera sacado partido de
estas particularidades para describir el comportamiento de la naturaleza. En la proxima seccion analizaremos
el caso de espacios minkowskianos de dimension 4: M4 .
rr

3.5.1. Espacios minkowskianos


Consideremos un espacio tetradimensional expandido por una base ortonormal {|e0 i , |e1 i , |e2 i , |e3 i}. Los
Bo

3
vectores {|e1 i , |e2 i , |e3 i} corresponden con la base canonica de

R0 .
1
2
3
4
Este espacio vectorial M tendr a asociado un espacio dual e , e , e , e a traves de una metrica

he | e e he | y |e i |e i |e i |e i


Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 165
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

con , = 0, 1, 2, 3 y donde: 00 = 00 = 1, 11 = 11 = 1, 22 = 22 = 1, 33 = 33 = 1 (con = 0


para 6= ), con lo cual se dice que tiene signo 2.6
Tal y como presentamos en (3.2.6), podemos asociar componentes covariantes y contravariantes a traves
de la metrica de la forma

he | e |ai = a he | e |e i = a e |e i he | = a he | = a he | a he |




Lo intereante del caso es que

a = a a0 = a0 , a1 = a1 , a2 = a2 , a3 = a3 .

Es decir, en este caso, porque la metrica tiene signo 2, bajar los ndices espaciales ( = i = 1, 2, 3) es

ar
cambiar el signo a las componentes7 . Dicho con mas propiedad, las componentes espaciales contravariantes
( = i = 1, 2, 3) tienen signos contrarios a las componentes covariantes.
De la misma manera que se expuso anteriormente en (3.2.6)

in
ha| j |e i |e i = ha| |e i |e i = ha |e i |ej i = a j he |e i |e i = a |e i a |e i
 

y otra vez, a = a , y habra cambio de signo cuando se bajan los ndices 1, 2, 3 para la metrica con
signo 2 que hemos considerado anteriormente.

lim
Del mismo modo se suben y se bajan ndices para componentes de tensores

P P 

Por su parte, el producto interno de dos vectores en un espacio de Minkowski involucra, de manera
natural, la metrica del espacio. Esto es

Una vez m
re
hx |yi = hy |xi = x y = y x = x y = x y = x0 y 0 x1 y 1 x2 y 2 x3 y 3 = x0 y0 x1 y1 x2 y2 x3 y3

as, la norma de un vector, tambien incluira al tensor metrico:


rP
2
k|xik = hx |xi = x x he |e i = x x = x x = x x = x0 x0 x1 x1 x2 x2 x3 x3

El caso m
as conocido lo constituye la norma de un desplazamiento infinitesimal, en un espacio tetradimen-
sional. Para una base generica, {|u i} (no necesariamente ortogonal) de un espacio vectorial con producto
interno. El desplazamiento infinitesimal puede expresarse como
o

2
u |) d
x | x = dx d
x = dt2 dx2 ,

(ds) hdr |dri = (d x h u i = dx d
ad

2 2 2
con: dx2 = dx1 + dx2 + dx3 .

3.5.2. Un toque de Relatividad Especial


rr

La genialidad de Einstein fue haber entendido que tena que incorporar el tiempo como otra coorde-
nada m as, vale decir, que los eventos que ocurren en la naturaleza estan etiquetados por cuatro n umeros:
(t, x, y, z) (x0 , x1 , x2 , x3 ). El r
apido desarrollo de la comprension de las ideas relativistas muestra que
Bo

estaban en el ambiente de la epoca de comienzos de 1900, y una vez mas la simplicidad como prejuicio se
impuso. Solo dos suposiciones est an en el corazon de la Relatividad Especial:
6 Realmente el signo 2 es una convenci
on, se puede tambien considerar de signo +2, con 00 = 1, 11 = +1, 22 = +1,
33 = +1.
7 Otra vez, para la m
etrica con signo 2, el cambio de signo entre componentes covariantes y contravariantes se da para la
componente, = 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 166
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

ar
in
Figura 3.3: Cono de luz, espacio-tiempo y eventos

lim
1. El principio de la Relatividad: Las leyes de la Fsica son identicas en todos los sistemas de referencia
inerciales.

re
2. La universalidad de la velocidad de la luz en el vaco: La velocidad de la luz en el vaco es siempre la
misma, y es independiente de la velocidad de la fuente de luz respecto a un observador en particular.
En terminos matem aticos estas dos audaces suposiciones se concretan en una simple suposicion ma-
rP
tem atica: el producto interno entre dos elementos de este espacio tetradimensional, debe conservarse para
una familia de vectores base. Luego vendr a la asociacion de observadores fsicos -o sistemas de coordenadas-
con los miembros de la familia de vectores base, pero la idea es la misma que planteamos para los espacios
euclideanos en 2.2.3: el producto interno -y consecuentemente, la norma de los elementos del espacio vectorial
y la distancia entre estos - es el mismo independientemente de la base en la cual expanda el espacio vectorial.
o

La primera de las interpretaciones es el como representamos los eventos en el espacio-tiempo. Supongamos


el caso unidimensional en el espacio, vale decir los eventos ocurren en un punto de la recta real x = x1 y en
un tiempo determinado, por lo tanto podremos asociar al evento un vector Evento (x0 , x1 ).
ad

A continuaci on nos preguntamos que representan las distancias (espacio-temporales) entre estos dos
eventos. Tal y como vimos, las distancias entre dos elementos de un espacio vectorial puede ser construida a
partir de la norma (de la resta de coordenadas) y la norma a partir del producto interno:
rr



< 0 conexion tipo espacio: eventos desconectados causalmente



|| |y xi ||2 hy x |y xi = 0 conexion tipo luz: posible conexion causal a traves de rayos de luz
Bo





> 0 conexion tipo tiempo: posible conexion causal

Con esta primera interpretaci


on de los valores de la norma y la vision tetradimensional, el espacio-tiempo,
dividido en pasado, presente y futuro, se puebla de eventos que pueden estar o no relacionados causalmente
tal y como muestra la Figura 3.3.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 167
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

on del producto interno para todos los observadores8 era intuitiva en los espacios euclideanos
La preservaci
y, al mantenerla para los pseudo-euclideanos nos traera consecuencias nada intuitivas en nuestra idea intuitiva
de realidad. Para el caso de la formulacion de la Relatividad Especial, a nadimos un supuesto m as: las
componentes del tensor metrico son invariantes bajo transformaciones de coordenadas, esto es

g [|e i , |e i] g [|e i , |e i] = , con {|e i} y {|e i}

dos bases que se conectan a traves de una transformacion de coordenadas x = x (


x ) x
= x
(x ).
Construyamos el tipo de transformaci on de coordenadas que mantiene estos dos supuestos:
1. El producto interno de dos vectores es independiente de la base que expande el espacio vectorial.

ar
2. Las componentes del tensor metricos son invariantes bajo transformaciones de coordenadas.
Si el producto interno de dos vectores es independiente de la base que expanda el espacio vectorial,
tendremos

in
hx |yi = h y i x y = x
x | y x y = x y ,
y como lo vimos en 3.4 las componentes de vectores, bajo cambio de coordenadas, transforman como

lim
i k
x x
x x
x
i =
a a x y = x
y x y = x y
= x y ,
xk x x x x
con lo cual concluimos que
x
x x
x
=
.
x x x x

Si derivamos respecto a x tendremos que

0 =
 2
x x
x x x
+
2 x
x
x x x
re

.
rP
Como la cantidad dentro del parentesis se anula podemos jugar con esta para descubrir algunas conse-
cuencias ocultas. Es de hacer notar que esa cantidad tiene tres ndices libres y por lo tanto son 64 ecuaciones
que se anulan. Eso significa que le podemos a nadir y sustraer cualesquieras otras con los ndices intercam-
biados. Supongamos que al parentesis anulado le a nadimos una con los ndices y intercambiados y,
adicionalmente, le sustraemos una con los ndices y intercambiados. Claramente, estamos a nadiendo y
o

sustrayendo ceros.
ad

 2
2 x
2x x 2 x 2x
x 2 x


x x x x x
0 = + + + .
x x x x x x x x x x x x x x x x x x

Con este truco, vemos que el u


ltimo termino anula el segundo y el pen
ultimo el cuarto, de forma y manera
rr

que nos queda


2x
x

0 = 2 ,
x x x
Bo

Con lo cual la u
nica posibilidad que nos queda es

2x
0= = x + a
x con y a constantes .
x x

8 Estamos suponiendo que observadores, sistemas de coordenadas y sistemas de referencia son conceptos equivalentes.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 168
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

Estas transformaciones lineales se conocen como las transformaciones, inhomogeneas, de Lorentz o tam-
bien las transformaciones de Poincare. Estas transformaciones forman un grupo y, uno de los posibles sub-
grupos lo constituye el conjunto de transformaciones propias de Lorentz de la forma:

00 = 1, i0 = 0j = 0, y ij = Rji con i, j = 1, 2, 3; y

donde Rji es una matriz de rotaci


on.
Supongamos el caso m as sencillo de este grupo de transformaciones: a = 0. Explcitamente hemos
identificado una transformaci
on de la forma

=
x 0 1 2 3
0 x + 1 x + 2 x + 3 x ,

ar
la cual, por construcci
on, deja invariante el intervalo tetradimensional

ds2 = dt2 dx1 dx2 dx3 = dx dx ,

in
y con el tensor metrico.
Es inmediato demostrar que este tipo de transformaciones deja invariante el intervalo. Primero, notemos
que

lim
= = = =

entonces, como

x = dx
d s2 = d
d x d
x dx dx = dx dx = ds2 .

Para construir una de las expresiones mas utilizadas del grupo de Lorentz consideramos la siguiente
situaci
on: un observador, x
re
, ve moverse una partcula con una velocidad v, mientras que un segundo
observador, x , la percibe en reposo. Entonces, para el observador que registra la partcula en reposo dxi = 0

dt = 00 dt
rP

x = dx
d
xi = i dx = i0 dt
d con i = 1, 2, 3.

Ahora bien, como


d
x xi
d
v= vi = i0 = v i 00 ,
o

dt dt
y
ad

2 2 2 2
= 1 = 0 0 = 00 10 20 30 ,
con una soluci
on de la forma
1 1 1
00 = , i0 = v i donde = p r i,
rr

1 (v)2 1 v i vi h
2 2 2
1 (v 1 ) + (v 2 ) + (v 3 )

los otros terminos ij no quedan unvocamente determinados porque esta de por medio la arbitrariedad de
Bo

una rotaci on Rji . Por ello, una selecci


on arbitraria pero razonable de todos los terminos ij es

1 1
ij = ji + v i vj ji + v i vj k .
(v)2 v vk

De esta forma quedan determinados todos los elementos de las transformaciones de Lorentz.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 169
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

Los observadores lorentzianos son los equivalentes a los observadores galileanos en las teoras newtonianas:
son observadores que se mueven uno respecto al otro con una velocidad constante y, desempe nan el mismo
papel que los observadores inerciales. Quiza la consecuencia mas impactante de la necesidad de vincular
mediciones de distintos observadores lorentzianos a traves de transformaciones de Lorentz, lo ilustra la
evolucion distinta del tiempo medido por los diferentes observadores. Un observador en reposo respecto a un
reloj, ve avanzar el tiempo con tic separados dt = t ya que su reposo respecto al reloj implica dxi = 0, por
lo tanto la separacion espacio temporal sera:
2
ds2 = dt2 (dxi )2 = (t) dt = t ,
mientras que un segundo observador tendra el mismo elemento de lnea pero expresado como
t

ar
s2 = dt2 (d
xi )2 = 1 v2 dt dt =

d ,
1 v2
y claramente indica que tiempo evoluciona mas lento para relojes en movimento.

in
3.5.3. Ejercicios
1. Si Aijk es un tensor covariante de orden 3 y B lmno un tensor contravariante de orden 4, pruebe que

lim
Aijk B jkno es un tensor mixto de orden 3.
2. En el espacio euclideano 3D y en coordenadas cartesianas no distinguimos entre vectores y uno-formas
debido a que sus componentes transforman de la misma manera. Demuestre que
i = ij aj bj = ij bi son la misma transformacion si la matriz ij es igual a la transpuesta de
a) a
su inversa, es decir, si es ortogonal.

asociados.
re
b) Considere dos observadores O : x, y x1 , x2 y O :x
, y x 1 , x
2 y sus sistemas de coordenadas
rP
1) Considere la siguiente transformacion de coordenadas de Galileo

1 1 2 1 2 2 2 2 1 2 2
x
=V t+ x x y x
= x + x
2 2 2 2
con V 1 una constante que representa la velocidad relativa entre O O y t al tiempo (parametro
de esta transformaci on). A continuacion suponga una partcula que describe un movimiento
o

respecto a O siguiendo una trayectoria recta, esto es x2 = x1 , donde es una constante.


Encuentre c omo lo describira el observador O respecto a sus coordenadas ( x1 , x
2 ).
ad

2) Considere ahora la generalizacion de la transformacion de coordenadas anterior



1 1 2 1 2 2 2 2 2 1 2 2
x
=V t+ x x y x
=V t+ x + x
2 2 2 2
rr

con V 1 y V 2 las componentes de una velocidad relativa entre O O y t al tiempo. Muestre que
la norma de cualquier vector queda invariante respecto a una transformacion de coordenadas
como la anterior y encuentre la matriz de transformacion.
Bo

3. Dado un espacio minkowskiano y un observador O que describe los eventos en el espacio-tiempo respecto
a un sistema de coordenadas {x } donde = 0, 1, 2, y = diag[1, 1, 1] el tensor metrico. Considere
entonces la siguiente transformaci
on de coordenadas
1
0 = (x0 x1 ) ,
x 1 = (x1 x0 )
x y 2 = x2
x con = p
1 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 170
3.6. ESPACIOS DE FUNCIONES


Donde = v/c es la velocidad relativa entre O y O.
a) Otra vez suponga que una partcula describe una linea recta respecto a O: x2 = x1 , con
igual a una constante. Esta vez encuentre como lo describira el otro observador O respecto a sus
coordenadas (x0 , x
1 , x
2 ).

b) Encuentre la expresi on para la transformacion de coordenadas, xx =
(transformacion de
Lorentz) entre estos sistemas relativistas y muestre como la norma: x x = x x , de cualquier

vector se conserva.
c) Considere el Tensor de Maxwell definido como
Ex Ey

0 1 0 0
F = E x 0 B z otra vez con = 0 1 0

ar
y z
E B 0 0 0 1
donde E = (E x , E y ) y B = (B x , B y ) son los campos electricos y magneticos (respectivamente)
medidos por un observador O. Si un observador mide un campo electrico E = E x i y ning un campo

in
magnetico. Cu
ales campos, F medira otro observador que viaja con una velocidad = vi?
4. Muestre que las ecuaciones de Maxwell

lim

B E = 4J , E B = 0, B = 0, y E = 4
t t
se pueden escribir como

F F , = 4J , donde J = (, J 1 , J 2 ) y J = (J 1 , J 2 ) .
x

3.6. Espacios de funciones re


rP
Los conceptos de espacios vectoriales discretos que hemos estudiado hasta ahora, finitos o infinitos, se
pueden extender a espacios de funciones, en donde los vectores del espacio vectorial y las bases son funciones
{|Fn (x)i}. La generalizacion de bases discretas a continua se hace transformando el ndice de las sumatorias
en la variable de una integral, de manera que los ndices se convierten en variables continuas definidas en
intervalos finitos o infinitos. Como primer paso para el estudio de estos espacios introduciremos un nuevo
objeto matem atico, que como veremos m as adelante, es de gran importancia y utilidad.
o

3.6.1. La funci
on delta de Dirac
ad

Recordemos que la delta de Kronecker ij que definimos con anterioridad es una cantidad que toma
valores discretos: ij = 1 si i = j y ij = 0 si i 6= j. Es posible construir una extension de este objeto
matem atico para que los ndices puedan tomar cualquier valor real.
rr

Esto nos permite definir la funcion :



r
n nx2 (x) si x 0
(x) = lm e
Bo

n
(x) = 0 si x 6= 0

Por tener este comportamiento tan particular no se le suele llamar funcion, sino una distribuci
on, y si el
punto del m
aximo es un punto diferente de x = 0 podemos escribir:
r
n n(xx0 )2
(x x0 ) = lm e
n

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 171
3.6. ESPACIOS DE FUNCIONES

Veamos la siguiente sucesi


on de funciones gaus-
sianas:
r
n nx2
n (x) = e ,

tal que
Z
n (x)dx = 1 , n > 0

A medida que el par ametro n aumenta su valor,

ar
la curva gaussiana n (x) ser
a cada vez m as alta
y mas angosta, y si n la curva ser a enton-
ces infinitamente m as alta e infinitamente mas
angosta, pero siempre conservando que el area

in
bajo la curva ser
a igual a la unidad.
Figura 3.4: n (x) para tres valores diferentes de n.

lim
donde x0 es el punto donde la gaussiana alcanza su valor maximo.
En general, este proceso de limite puede aplicarse a funciones cuya area bajo la curva sea la unidad
Z
G(x)dx = 1

de manera que

lm
Z
nG(n(x x0 ))f (x0 )dx0 =
re lm
Z
G(n(x x0 ))f

nx0

d(nx0 )
rP
n n n
Z  
= lm G( )f x d( ) = f (x)
n n
Si se intercambian los procesos de lmite e integracion:
Z h
o

i
f (x) = lm nG(n(x x0 )) f (x0 )dx0 (x x0 ) = lm nG(n(x x0 )) (x, x0 ) .
n n
ad

Por lo tanto:
(x, x0 ) si x x0

Z
f (x) = (x x0 )f (x0 )dx0
(x, x0 ) = 0 si x 6= x0

rr

La principal propiedad de la delta de Dirac es que


Z
f (x)(x x0 )dx = f (x0 )
Bo

es decir, act
ua parecido a como lo hace la delta de Kronecker cuando se contrae uno de sus ndices con las
componentes de un vector: aj = ji ai , en el sentido que de todos lo valores selecciona solo uno. Adem
as, si
f (x) = 1 entonces Z
(x x0 )dx = 1 .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 172
3.6. ESPACIOS DE FUNCIONES

Existen algunas representaciones integrales basadas en el hecho de que (x x0 ) u


nicamente existe en
x = x0 .
Z Z x=x0 +
f (x)(x x0 )dx = f (x)(x x0 )dx

x=x0
Z b f (x0 ) si a x0 b
f (x)(x x0 )dx =
a
0 si x0 < a o x0 > b

Y la funci
on escal
on de Heaviside

1 si x x0

ar
x
dH(x x0 )
Z
H(x x0 ) = (x x0 )dx = (x x0 ) = .
dx
0 si x x0

in
Ejemplo Una distribuci on de carga electrica puede escribirse de manera sencilla utilizando la delta de
Dirac. La distribuci
on de carga electrica puede representarse a traves de la siguiente integral
Z

lim
q= (r)dV
V

de manera que para una carga puntual localizada en r = r0 se tiene que


Z Z
q = q (r r0 )dV = (r)dV (r) = q(r r0 )
| {z } V
=1

Para finalizar, veamos algunas de las tantas propiedades:


re
rP
(x)
(x x0 ) = (x0 x) (ax) = |a|

x(x) = 0 f (x)(x x0 ) = f (x0 )(x x0 )


n
(x2 a2 ) = 1
[(x a) + (x + a)] xn+1 d dx(x) =0
o

2|a| n

R
(r r0 ) = (x x0 )(y y0 )(z z0 ) f (r)(r r0 )dV = f (r0 )
ad

3.6.2. Bases continuas


Tal y como vimos anteriormente, la representacion de un vector |F i en un espacio vectorial abstracto V
rr

puede darse en termino de una base ortonormal de vectores (discreta y finita BDF = {|e1 i , |e2 i , |e3 i , |en i}
o discreta e infinita BDI = {|e1 i , |e2 i , |e3 i |en i }) de la forma:
i

c |ei i = ei F i |ei i BDF = {|e1 i , |e2 i , |e3 i |en i}
Bo

|F i =

i
c |ei i = ei F i |ei i BDI = {|e1 i , |e2 i , |e3 i |en i }

donde en ambos casos:


ci = ei F i = cj ei |ej i = cj ji .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 173
3.6. ESPACIOS DE FUNCIONES

Recapitulemos ahora algunos puntos que hemos tratado con anterioridad, y con el fin de aclarar algunos
conceptos, el caso de bases discretas de funciones {|ei (x)i}.
La relaci
on de ortogonalidad viene dada, como hemos mencionado, por:
Z b
n
he (x)|em (x)i = en (x)em (x)dx = n m
n
,
a

y con una norma definida por


Z b
2 2
k|ei (x)ik = hen (x)|en (x)i = |en (x)| dx = n .
a

ar
La base ser
a ortonormal si n = 1.
Con una base {|ei (x)i} definida es posible representar cualquier funcion f (x) cuadrado integrable, es
decir que cumpla con
Z b

in
2
|f (x)| dx 6= ,
a
en una combinaci
on lineal de la base dada:

lim
|f (x)i = C i |ei (x)i

Las cantidades C i , las componentes de |F (x)i, se obtienen de la siguiente manera


Z b
ei (x) f (x)i = C j ei (x) ej (x)i = C j ji = C i = f (x)ei (x)dx ,


re
alculos que vienen cambiar i n y x x0 , de manera que
Resulta conveniente para los c
Z b
a
rP
n
C = f (x0 )en (x0 )dx0 .
a

Por lo tanto
" #
X Z b
0
n
|f (x)i = C |en (x)i |f (x)i = f (x )en (x0 )dx0 |en (x)i
o

n a
XZ b
f (x0 )en (x0 )en (x)dx0
ad

=
n a
Z b X
= f (x0 ) en (x0 )en (x)dx0
a n
rr

Utilizando la delta de Dirac


Z b " #
Z b X X
0 0 0 0
en (x0 )en (x) dx0 (x x0 ) = en (x0 )en (x) .
Bo

|f (x)i = f (x )(x x )dx = f (x )


a a n n

Esta u
ltima relaci
on viene a ser una generalizacion de la relacion de cierre mencionada en la Seccion
2.3.4 y se conoce como condici on de completitud para la base {|ei (x)i}, ademas, tambien resulta ser una
representaci
on en serie para la delta de Dirac.
De todo esto surgen algunas propiedades fundamentales:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 174
3.6. ESPACIOS DE FUNCIONES

Se dice que el conjunto {|ei (x)i} es completo si para


Z b X
i 2 2
|f (x)i = C |ei (x)i |f (x)| = |C n |
a n

Si |f (x)i = C i |ei (x)i y |g(x)i = E i |ei (x)i, entonces

hf (x)|g(x)i = Cn E n .

Es posible pasar de estos espacios vectoriales discretos, donde las bases son un conjunto numerable de
elementos {en (x)}, a espacios vectoriales de funciones con las bases dadas por funciones y donde el ndice n
pasa a ser una variable continua.

ar
on 2.3.4 hablabamos de un conjunto de funciones {|e1 i , |e2 i , |e3 i , , |en i }
En el primer ejemplo de la Secci
definidas por:

|e0 i = 1, |e2n1 i = cos(nx) |e2n i = sen(nx), con n = 1, 2, 3,

in
y

Esta base discreta de Fourier tambien la podemos escribir de la forma compleja como:
1

lim
n
|en (x)i = ei L x , con n = . . . y L x L .
2L
Cuando L , y n aumentando tambien indefinidamente, la cantidad k = n L se va convirtiendo en una
variable continua, es decir, k = n
L 0. Notemos que los
ndices de la delta de Kronecker nm pueden
Lk Lk0
tomar los valores: n = , m = , y en el proceso de L se convertira en:

nn0

Lk Lk 0




=

L



re
(k k 0 ) = (k k 0 ) .
L
rP
De esta manera la base ortonormal quedara escrita en funcion de las variables continuas k y x
1
|e(k, x)i = eikx .
2
El hecho de que sean ortonormales se refleja en la siguiente condicion (que es una extension de la expresi
on
para el producto interno de bases discretas)
o

Z b
he(k, x)|e(k, x)i = e(k, x) e(k 0 , x) dx = (k k 0 ) , con k , a x b
ad

Al ser el conjunto de funciones {|e(k, x)i} una base, toda funcion del mismo espacio vectorial se puede
expandir en esa base como:
Z
rr

|f (x)i = C(k)e(k, x)dk



En correspondencia con el caso de las bases discretas, el coeficiente C(k) viene a ser algo parecido a las
Bo

componentes de |f (x)i. Y para calcularlas se procede como se muestra a continuacion:


"Z #
Z b Z b
he(k 0 , x) |f (x)i = e(k 0 , x) f (x) dx = C(k) e(k 0 , x) e(k, x) dx dk
a a
Z
= C(k)(k k 0 )dk = C(k 0 ) .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 175
3.6. ESPACIOS DE FUNCIONES

Volvemos a cambiar la notaci


on para los ndices:
Z b
C(k) = e(k, x0 ) f (x0 )dx0 ,
a

por lo tanto
"Z #
Z Z b Z b
0
|f (x)i = C(k) |e(k, x)i dk = f (x ) 0
e(k, x ) e(k, x)dk dx0 = f (x0 )(x x0 )dx0 ,
a a

y la relaci
on
Z
e(k, x0 ) e(k, x)dk = (x x0 )

ar

ser
a la relaci
on de cierre para el conjunto no numerable de funciones ortonormales.
Una integral como la que nos permiti o definir C(k), digamos, del tipo

in
Z b Z
0 0 0
F (k) = f (x )e(k, x ) dx |f (x)i = F (k)e(k, x)dk
a

es lo que se denomina una transformada de f (x). Mas adelante veremos que si la base, es por ejemplo

lim
eikx / 2, la transformada ser a la de Fourier.
En el espacio vectorial de funciones de cuadrado integrable L2 , definidas en R3 tendremos que:
Z
X 
i 3 0 0 0

i
|F i = c |ei i e F i |ei i =
d r i (r ) f (r ) |ei i
i=0

que se reescribe en terminos de funciones como

f (r) =
Z
X
re 
d3 r0 i (r0 ) f (r0 ) i (r)
rP
i=0
R P
Es claro que se pueden intercambiar los smbolos de y , por lo cual

" #
Z X
f (r) = d3 r0 f (r0 ) i (r0 ) i (r)
i=0
o

| {z }
G(r0 ,r)
ad

on G(r0 , r) que depende de los argumentos, r0 y r, vive dentro de las integrales y convierte
la funci
Z
f (r) = d3 r0 f (r0 ) G(r0 , r)

rr

Podemos ver entonces que: Z


f (r) = d3 r0 f (r0 ) (r0 r)

Bo

En resumen, la generalizacion de bases discretas a continuas se hace transformando el ndice de la suma-


toria en la variable de una integral
Z Z Z
|i = d c () |w i c () = hw |i = d c () hw |w i = d c () ( )

As, para los conceptos expresados hasta ahora se tiene el siguiente tabla resumen:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 176
3.6. ESPACIOS DE FUNCIONES

Propiedad\Base
Discreta Continua
Ortogonalidad ui |u i = j
i hw |w R i = ( )
P j
Cierre 1 = j=0 |uj i uj 1 = d |w i hw |
P
|F i =
i=0 ci |ui i
R
Expansi
on |i = d c () |w i
Componentes ci = Pui F i c ()R = hw |i

Producto Interno hG| F i = i=0 g i fi hG| F i = d g () f ()
P 2 R 2
Norma hF | F i = i=0 |fi | hF | F i = d |f ()|

3.6.3. Transformada de Fourier. Bases de ondas planas


En las teoras de oscilaciones es de gran importancia considerar el problema de la transformada de Fourier.

ar
Recientemente vimos que una funci on f (x) puede representarse de la forma
Z
|f (x)i = C(k)e(k, x)dk ,

in

si la funci a definida en (, ) y si tomamos al


on f (x) est conjunto de vectores base como el conjunto
de funciones continuas y ortonormales {e(k, x)} como {eikx / 2}, entonces la integral anterior la podemos
escribir de la forma:

lim
Z
1
|f (x)i = F(k)eikx dk ,
2
on de ortogonalidad: he(k, x)|e(k, x)i = e(k, x)e(k 0 , x) dx = (k k 0 ), resulta:
R
Si utilizamos la relaci
Z
0
ei(kk )x dx = 2(k k 0 ) .

Por lo tanto:

1
Z
re

f (x)eikx dx .
rP
|F(k)i =
2

A las variables x y k se les denominan variables conjugadas de Fourier (no conjugadas como en variable
compleja) y a F(k) la transformada de Fourier de f (x) (y viceversa). Notemos que si sustituimos F(k) en la
otra integral: Z Z Z
1 ik(xx0 ) 0 0
f (x)e dk dx |f (x )i = f (x)(x x0 ) dx0
o

Podemos ver que la integral para F(k) la podemos hacer en dos partes:
ad

Z Z 0 Z
1 ikx 1 ikx 1
|F(k)i = f (x)e dx f (x)e dx + f (x)eikx dx
2 2 2 0
rr

Si: x x, entonces
Z Z
1 1
|F(k)i = f (x)eikx dx + f (x)eikx dx
2 2
Bo

0 0

Dos casos podemos estudiar


Si la funci
on es par, f (x) = f (x):
Z Z  Z
1 2
|F(k)i = f (x)eikx dx + f (x)eikx dx = f (x) cos(kx) dx
2 0 0 2 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 177
3.6. ESPACIOS DE FUNCIONES

entonces, de la transformada al hacer F(k) = F(k) se tiene


Z
2
|f (x)i = F(k) cos(kx) dk ,
2 0
Estas dos funciones se conocen como las transformadas coseno de Fourier.
on es impar, f (x) = f (x)
Si la funci
Z Z  Z
1 ikx ikx 2i
|F(k)i = f (x)e dx f (x)e dx = f (x)sen(kx) dx
2 0 0 2 0

Ahora al hacer F(k) = F(k)

ar
Z
2
|f (x)i = F(k)sen(kx) dk ,
2 0

donde F (k) = iF (k). Tenemos ahora las transformadas seno de Fourier.

in
La generalizacion a Rn es obvia. Si f = f (r), entonces
  n1 Z Z
1
|f (r)i = F(k)ei(kr) dk ,

lim
2

donde dk = dk1 dk2 dk3 . . . dkn .


Para la transformada 1 Z
1 n
 Z
|F(k)i = f (r)ei(kr) dr ,
2

re
donde dr = dx1 dx2 dx3 . . . dxn representa el elemento de volumen en Rn .

Ondas planas: Como un ejemplo de lo anterior consideraremos la base de las ondas planas. Si a k la
rP
llamaremos s y a la variable x el tiempo t, vale decir
Z Z
1 1
F (s) = ist
dt e f (t)  f (t) = ds eist F (s)
2 2
De esta manera, a la funci on F (s) se le denomina la distribucion espectral de f (t) y a |F (s)|2 la densidad
o

espectral, es decir, la intensidad de la onda en el intervalo [s, s + s]. Esto significa que la energa total es
Z
ad

E= |F (s)|2 ds .

Tambien podemos re-escribir las transformadas en terminos de la posicion y el momento:


Z Z
rr

1 i(px/~) 1
(x) = dp e (p)  (p) = dx ei(px/~) (x)
2~ 2~
Hemos tenido cuidado de incluir los factores de normalizacion adecuados para el caso de las descripciones
Bo

en mecanica cu
antica. Estas f
ormulas pueden ser re-interpretadas en funcion de los conceptos anteriormente
expuestos y podemos definir una base continua de la forma
Z   Z  
1 1 i(px/~) 1 1 i(px/~)
(x) = dp e (p)  (p) = dx e (x)
2~ 2~ 2~ 2~
| {z } | {z }
vp (x) vp (x)

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 178
3.6. ESPACIOS DE FUNCIONES

por lo cual Z Z
(x) = dp vp (x) (p)  (p) = dx vp (x) (x) .

Diremos que la funci


on (x) est
a expresada en la base de ondas planas vp (x) = 1 ei(px/~) .
2~
N
otese:

El ndice p de vp (x) vara de forma continua entre a .


1
Que vp (x) = 2~ ei(px/~)
/ L2 , es decir, no pertenece al espacio vectorial de funciones de cuadrado
integrable ya que su norma diverge
Z Z

ar
2 1
hvp | vp i = dx |vp (x)| = dx
2~

Que las proyecciones de (x) sobre la base de ondas planas es: (p) = hvp | i.

in
La relaci
on de cierre para esta base se expresa como
Z Z Z
1 i[p(x0 x)/~]

lim
1= d |v i hv |  dp vp (x0 ) vp (x) = dp e = (x0 x) ,
2~

mientras que de la definici on de producto interno uno obtiene


Z Z
1 i[x(p0 p)/~]
hvp0 | vp i = dx vp0 (x) vp (x) = dx e = (p0 p) .

las propiedades de la delta de Dirac. Esto es



re
2~

En este mismo orden de ideas podemos construir otra base continua r0 (r) a partir de la utilizaci
on de
rP
Z Z
3
(r) = d r0 (r0 ) (r0 r)  (r0 ) = d3 r (r) (r r0 )
| {z }
r0 (r)

por lo cual la re-interpretacion es inmediata


o

Z Z
(r) = d3 r0 (r0 ) r0 (r) con (r0 ) = hr0 | i = d3 r r0 (r) (r)
ad

m
as a
un la ortogonalidad queda garantizada por la relacion de cierre
Z Z
rr

0
hr0 | r0 i = 3
d r0 r0 (r) r0 (r ) = d3 r0 (r r0 ) (r0 r0 ) = (r0 r)

al igual que
Bo

Z Z
d3 r r0 (r) r00 (r) = d3 r (r r0 ) (r r00 ) = (r00 r0 )

hr0 | r00 =

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 179
3.6. ESPACIOS DE FUNCIONES

3.6.4. Las representaciones |ri y |pi


A partir de las bases de ondas planas vp0 (x), y de distribuciones, r0 (r), construimos las llamadas
representaciones |ri y |pi de la forma siguiente. Asociamos

r0 (r)  |r0 i

vp0 (x)  |p0 i

De esta forma dada las bases {r0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos representacio-
nes, la representacion de coordenadas, |r0 i , y la representacion de momentos |p0 i de V, respectivamente.
De tal modo que

ar
Z
hr0 | r00 i = d3 r r0 (r) r00 (r) = (r00 r0 )
Z

in
1 = d3 r0 |r0 i hr0 |
Z Z
1 i(r0 p0 /~)
hp0 | p00 i = d3 r vp00 (r) vp0 (r) = d3 r e = (p00 p0 )

lim
2~
Z
1 = d3 p0 |p0 i hp0 |

Podemos, entonces expresar el producto interno para la representacion de coordenadas como

h |i = h|
Z

| {z


}
Z

1
re
d3 r0 |r0 i hr0 | |i = d3 r0 (r0 )(r0 )
rP
y equivalentemente para la representaci
on de momentos
Z  Z
h |i = h| d3 p0 |p0 i hp0 | |i = d3 p0 (p0 )(p0 )
| {z }
1
o

por lo cual hemos encontrado que


ad

Z Z
3
|i = d r0 |r0 i hr0 | i = d3 p0 |p0 i hp0 | i

(r0 ) = hr0 |i y (p0 ) = hp0 |i


rr

que es la representacion de |i en coordenadas, (r0 ), y en momentos, (p0 ).


Adicionalmente cuando |i = |pi tendremos que
Bo

Z  Z
1 i
hr0 |p0 i = hr0 | d3 r00 |r00 i hr00 | |p0 i = 3/2
d3 r00 (r00 r0 ) e ~ (p0 r0 )
| {z } (2~)
1
1 i
hr0 |p0 i = e ~ (p0 r0 )
3/2
(2~)

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 180
3.6. ESPACIOS DE FUNCIONES

con lo cual (p0 ) puede considerarse la transformada de Fourier de (r0 ), y denotaremos de ahora en adelante
las bases |r0 i |ri y |p0 i |pi.
Estos ndices continuos, r0 y p0 , representan tres ndices continuos r
(x, y, z) y p
(px , py , pz ). La
proyeccion de un vector abstracto |i en la representacion |ri sera considerada como su expresion en el
espacio de coordenadas, igualmente su proyeccion hp |i sera su expresion en el espacio de los momentos.
Eso nos permitir a hacer corresponder los elementos de espacios vectoriales abstractos con elementos de un
espacio vectorial de funciones. Por lo tanto todas las formulas de proyeccion quedan como

hr |i = (r) y hp |i = (p)

mientras que las relaciones de cierre y ortonormalizacion

ar
Z
hr| r0 i = (r0 r) y 1= d3 r |ri hr|
Z
0
hp| pi = (p p) y 1= d3 p |pi hp| ,

in
Por su parte, la relaci
on de cierre har
a corresponder a la expresion de el producto interno de dos vectores,
tanto en la representacion de las coordenadas como en la representacion de momentos, en la forma

lim
Z  Z
h| d r |ri hr| |i = d3 r (r) (r)
3

m
h |i

h|
Z 
m
re Z
d3 p |pi hp| |i = d3 p (p) (p)

rP
donde (p) y (p)
son las transformadas de Fourier de (r) y (r), respectivamente. La afirmacion anterior
queda evidentemente demostrada del cambio entre las bases |ri y |pi. Esto es

1 i
hr |pi = hp |ri = 3/2
e ~ (pr)
(2~)
o

por lo cual
ad

Z  Z Z
1 i

(r) = hr |i = hr| d p |pi hp| |i = d3 p hr |pi hp| i =
3
3/2
d3 p e ~ (pr) (p)
(2~)
e inversamente
rr

Z  Z Z
1 i
(p) = hp |i = hp| 3
d r |ri hr| |i = d3 r hp |ri hr| i = 3/2
d3 r e ~ (pr) (r) .
(2~)
Bo

3.6.5. Ejercicios
1. Si
1

0 x < 2n
1 1
n (x) = n 2n < x < 2n
1
0 x < 2n

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 181
3.6. ESPACIOS DE FUNCIONES

demuestre que Z
f (0) = lm f (x)n (x)dx ,
n

para f (x) continua en x = 0.

2. Para
n 1
n (x) = ,
1 + n2 x2
demuestre lo siguiente Z
n (x)dx = 1

ar
3. Si
n 2 2
n (x) = en x ,

in
demuestre que
d(x)
x = (x)
dx

lim
4. Demuestre la siguiente relaci
on Z
0 (x)f (x)dx = f (0)

5. Dadas las siguientes funciones ortonormales

a) |e(k, x)i =

b) |e(k, x)i =



1

1
eikx

1
sen(kx) , cos(kx)


re
con: 0 k < , x <

con: k < , x <


rP
2

a) Escriba las condiciones de ortogonalidad y cierre


b) Demuestre
R
1) sen(kx)sen(k 0 x)dx = (k k 0 ).
o

R
2) cos(kx) cos(k 0 x)dx = (k k 0 ).
R
3) sen(kx) cos(k 0 x)dx = 0.
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 182
3.7. ALGUNOS EJEMPLOS RESUELTOS

3.7. Algunos ejemplos resueltos


1. Encuentre las base dual para el siguiente espacio vectorial en V = R3 con base ortogonal:
|e1 i = (1, 1, 1), |e2 i = (2, 1, 1), |e3 i = (0, 1, 1)

Soluci
on: Todo vector de ese espacio queda representado en esa base por

1 + 2 2

1 2 0
|vi = i |ei i = 1 1 + 2 1 + 3 1 = 1 2 3
1 1 1 1 + 2 3

ar
Sea F V , de manera i

i que F [|vi] = wi pueda representarse

por vectores fila F = (w1 , w2 , w3 ) y la
base en dual como: e = (ai , bi , ci ). Ademas sabemos que ei |ej i = ji

Por lo tanto:

in

1
e1 |e1 i = (a1 , b1 , c1 ) 1 = a1 + b1 c1 = 1

lim
a1 = 31


1 2
e |e2 i = (a1 , b1 , c1 ) 1 = 2a1 b1 + c1 = 0 b1 = 31
1 c1 = 13



1 0
e |e3 i = (a1 , b1 , c1 ) 1 = b1 c1 = 0
1
re
rP


2 1
e |e1 i = (a2 , b2 , c2 ) 1 = a2 + b2 c2 = 0
1
a2 = 31


2 2
e |e2 i = (a2 , b2 , c2 ) 1 = 2a2 b2 + c2 = 1 b2 = 61
c2 = 61
o

1


0
ad


2
e |e3 i = (a2 , b2 , c2 ) 1 = b2 c2 = 0
1
rr


1
e3 |e1 i = (a3 , b3 , c3 ) 1 = a3 + b3 c3 = 0

1
Bo



3 2 a3 = 0
e |e2 i = (a3 , b3 , c3 ) 1 = 2a3 b3 + c3 = 0 b3 = 21
1 c3 = 12



3 0
e |e3 i = (a3 , b3 , c3 ) 1 = b3 c3 = 1
1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 183
3.7. ALGUNOS EJEMPLOS RESUELTOS





La base del dual es: e1 = ( 31 , 13 , 13 ), e2 = ( 31 , 16 , 16 ), e3 = (0, 12 , 12 ), de manera que

|F i = w1 e1 + w2 e2 + w3 e3



Notemos que como era de esperarse

1 + 2 2 1 + 2 2

   

1 1 1 1 1 1 1
1 2 3 = 1 , e2 |vi = 1 2 3 = 2

e |vi = , , , ,
3 3 3 1 2 3 3 6 6
+ 1 + 2 3

1 + 2 2

 

3 1 1
e |vi = 0, , 1 2 3 = 3

ar
2 2
1 + 2 3

2. Dado los tensores:


1 0 2 1

in
Tij = 3 4 1 , Ei = 4
1 3 4 3

Encuentre la parte simetrica y la parte amtisimetrica de Tij y el producto Tij E j .

lim
Soluci
on: La parte simetrica de Tij es:

1 0 2 1 3 1 2 3 3
1 1 1
Sij = [Tij + Tji ] = 3 4 1 + 0 4 3 = 3 8 4
2

Para la parte antisimetrica de Tij :


2
1 3
re
4 2 1 4
2
3 4 8
rP

1 0 2 1 3 1 0 3 1
1 1 1
Aij = [Tij Tji ] = 3 4 1 + 0 4 3 = 3 0 2
2 2 2
1 3 4 2 1 4 1 2 0

Por lo tanto:
o


2 3 3 0 3 1 1 0 2
1
Tij = Sij + Aij = 3 8 4 + 3 0 2 = 3 4 1
ad

2
3 4 8 1 2 0 1 3 4

Para calcular Tij E j podemos hacer lo siguiente:


rr


C1 = T11 E 1 + T12 E 2 + T13 E 3 = (1)(1) + (0)(4) + (2)(3) = 7
1 2 3
Ci = Ti1 E + Ti2 E + Ti3 E = C2 = T21 E 1 + T22 E 2 + T23 E 3 = (3)(1) + (4)(4) + (1)(3) = 22
C3 = T31 E 1 + T32 E 2 + T33 E 3 = (1)(1) + (3)(4) + (4)(3) = 25

Bo

3. Dados los vectores:

e1 = i + j + 2k , e2 = i + 2j + 3k , e3 = i 3j + 4k .

Diga si estos vectores son mutuamente ortogonales. Encuentre la base recproca ei , el tensor metrico
en ambas bases y para el vector A = 3e1 + 2e2 + e3 encuentre sus componentes covariantes.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 184
3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci
on: Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos:
e1 e2 = 9 e1 e3 = 6 e2 e3 = 7 .
Por lo tanto no son ortogonales.
Por otro lado, sabemos que:
ej ek
ei =
ei (ej ek )
Podemos calcular primero el denominador
V = e1 (e2 e3 ) (i + j + 2k) ([i + 2j + 3k] [i 3j + 4k]) = 6

ar
Por lo tanto
e2 e3 17
16 j 56 k
1

e = V = 6 i


ej ek
e3 e1
ei = e2 = = 35 i + 13 j + 23 k

in
V V


e1 e2

= 61 i 16 j + 16 k
3
e = V
Notemos que

lim
     
17 1 5 5 1 2 1 1 1 1
V = e1 (e2 e3 ) i j k i+ j+ k i j+ k =
6 6 6 3 3 3 6 6 6 6

El tensor metrico para la base recproca

ij ji i
g = g = e e =j
1 1

e e
e2
e1
e3 e1
re
e1 e2
e2 e2
e3 e2
e1 e3

e3 e3
35
4
e2 e3 = 16
3
7
12
16
3
10
3
1
3
1
3
1
12
7
12


rP
mientras que para la base original

e1 e1 e1 e2 e1 e3 6 9 6
gij = gji = ei ej = e2 e1 e2 e2 e2 e3 = 9 14 7
e3 e1 e3 e2 e3 e3 6 7 26
o

Y como debe ser


35
16 7

6 9 6 12 1 0 0
ad

4 3
ei ej = gij = 9 14 7 16
3
10
3
1
3
= 0 1 0
7 1 1
6 7 26 12 3 12
0 0 1

Para un vector dado por: A = 3e1 + 2e2 + e3 = 6i + 4j + 16k = a1 i + a2 j + a3 k, podemos calcular sus
rr

componentes covariantes de la manera siguiente:



a1 = g11 a1 + g12 a2 + g13 a3 = (6)(6) + (9)(4) + (6)(16) = 168
j
ai = gij a = a2 = g21 a1 + g22 a2 + g23 a3 = (9)(6) + (14)(4) + (7)(16) = 222
Bo

a3 = g31 a1 + g32 a2 + g33 a3 = (6)(6) + (7)(4) + (26)(16) = 480


Esto es: A = a1 i + a2 j + a3 k = 168e1 + 222e2 + 480e3 =26i-34j+88k.


4. Repita los c
alculos del ejercicio anterior pero con los vectores
e1 = i + j + 2k , e2 = i j + k , e3 = 3i 3j .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 185
3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci
on: Ortogonalidad:
e1 e2 = 0 e1 e3 = 0 e2 e3 = 0 .
Son ortogonales.
Por otro lado, sabemos que:
ej ek
ei =
ei (ej ek )
Podemos calcular primero el denominador
V = e1 (e2 e3 ) (i + j + 2k) ([i j + k] [3i 3j]) = 18

ar
Por lo tanto
e2 e3
= 61 i + 16 j + 13 k
1

e = V


ej ek
e3 e1
ei = e2 = = 31 i 13 j + 13 k

in
V V


e1 e2

= 61 i 16 j
3
e = V
El volumen

lim
     
1 1 1 1 1 1 1 1 1
V = e1 (e2 e3 ) i+ j+ k i j+ k i j =
6 6 3 3 3 3 6 6 18

El tensor metrico para la base recproca


1 1 1
e1 e2 e1 e3

e e 0 0
gij = gji = ei ej = e2 e1

para la base original


e3 e1 re
e2 e2
e3 e2 e3 e3
6
e2 e3 = 0
0
1
3
0
0
1
18
rP

e1 e1 e1 e2 e1 e3 6 0 0
gij = gji = ei ej = e2 e1 e2 e2 e2 e3 = 0 3 0
e3 e1 e3 e2 e3 e3 0 0 18

Para A = 3e1 + 2e2 + e3 = 4i 2j + 8k = a1 i + a2 j + a3 k, sus componentes covariantes seran


o


a1 = g11 a1 = (6)(4) = 24
ai = gij aj = a2 = g22 a2 = (3)(2) = 6
ad

a3 = g33 a3 = (18)(8) = 144


Esto es: A = a1 i + a2 j + a3 k = 24e1 6e2 + 144e3 =30i-18j+6k.


Notemos que si la base original hubiese sido ortonormal:
rr


e1 = (i + j + 2k)/ 6 , e2 = (i j + k)/ 3 , e3 = (3i 3j)/ 18 .
Entonces:
Bo


a1 = a1

1 0 0
gij = gij = 0 1 0 a2 = a2
0 0 1 a3 = a3

5. Demuestre que
(x)
(x) = , > 0.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 186
3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci
on: Hagamos el siguiente cambio de variable y = x.
Z Z y Z Z
1 1 y f (0)
f (x)(x)dx = f (y) dy = f (y)dy = = f (x)(x)dx

(x)
por lo tanto: (x) = .
La condici
on > 0 es porque se debe tener en cuenta que la funcion delta de Dirac es par, es decir,
(x) = (x). De manera que resulta mas apropiado escribir:

(x)
(x) = .
||

ar
6. Demuestre que:
X (x )
(g(x)) = , g() = 0 g 0 () 6= 0 .
|g 0 ()|

in

Soluci
on: Podemos ver que para la funcion g(x), en los intervalos donde se hace cero, se tiene

lim
g(x) g() + (x )g 0 () , < <

de manera que si sumamos para todos esos intervalos


Z X Z + Z X (x )
0
f (x)(g(x))dx = f (x) ((x )g ()) dx = f (x) dx
|g 0 ()|

re
donde hemos utilizado el resultado del ejemplo anterior. Por lo tanto:

rP
X (x )
(g(x)) = .

|g 0 ()|

7. Encuentre la transformada de Fourier de la funcion


o
ad

n n

sen(0 t) 0 < t < 0
rr

f (t) =
0 t < n
0 t >
n

0
Bo

Figura 3.5: f (t) con: n = 6 y 0 = .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 187
3.7. ALGUNOS EJEMPLOS RESUELTOS

Solucion: La funci on f (t) representa un tren de ondas finito con n ciclos en el intervalo dado. Por
el hecho de ser f (t) una funci on impar, podemos utilizar la transformada seno de Fourier:
Z n Z n
2 0 2 0
|F()i = f (t)sen(t) dt = sen(0 t)sen(t) dt
2 0 2 0

Resolviendo la integral obtenemos la distribucion espectral


     
2 n n
|F()i = 0 sen cos (n) cos sen (n)
2 ( 2 0 2 ) 0 0
h i h i
n
1 sin 0 (0 ) sin n
0 (0 + )

ar

=
2 2(0 ) 2(0 + )

in
Es f
acil ver que

lm |F()i = lm |F()i = 0

lim
0

Adem as, se puede apreciar que el primer termino es el de


relevancia debido a que en el denominador aparece la dife-
rencia: 0 .
En la Figura 3.6 se muestra la funci on de distribucion y
en ella podemos notar que a medida que n crece la funcion
|F()i es una delta de Dirac en = 0 .
Por otro lado, es f
acil ver que los ceros ocurren cuando
re
rP
0 1 2 3
= , , ...
0 n n n
Figura 3.6: F() con: n = 6 y 0 = .

8. Encontrar la transformada de Fourier de la derivada de una funcion.


o

Soluci
on: Si
ad


(ik)n
Z Z
1 d
|f (x)i = F(k)eikx dk n
|f (x)i = F(k)eikx dk .
2 dx 2
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 188
3.8. EJERCICIOS PROPUESTOS

3.8. Ejercicios propuestos


1. Si V es el espacio vectorial de todos los polinomios reales de grado n 2. Y si ademas definimos
Z 1
1 [|pi] = = p(x)dx , 2 [|pi] = p0 (2) 3 [|pi] = p(1)
0

donde { 1 , 2 , 3 } V . Encuentre una base {|e1 i , |e2 i , |e3 i} V que resulte dual a { 1 , 2 , 3 }.
2. Sean |v1 i y |v2 i V y supongamos que F [|v1 i] = 0 implica que F [|v2 i] = 0 F V . Muestre que
|v2 i = |v1 i con K.
3. Sean F1 y F2 V y supongamos que F1 [|vi] = 0 implica que F2 [|vi] = 0 |vi V. Muestre que

ar
F2 = F1 con K.
4. Dado Fijk un tensor totalmente antisimetrico respecto a sus ndices ijk, demuestre que el rotor de Fijk

in
definido como sigue, tambien ser
a un tensor
Fijk Fjkm j Fkmi k Fmij
rot [Fijk ] = m Fijk i Fjkm + j Fkmi k Fmij m
i
+ j

x x x xk

lim
5. El momento de inercia se define como
Z
Iji = dv (r) ji xk xk xi xj con xi = {x, y, z} y dv = dx dy dz
 
V

a) Muestre que Iji es un tensor


on matricial para Iji
b) Encuentre la representaci re
c) Considere un cubo de lado l y masa total M tal que tres de sus aristas coinciden con un sistema
rP
de coordenadas cartesiano. Encuentre el tensor momento de inercia, Iji .

6. Para un sistema de n partculas rgidamente unidas, la cantidad de movimiento p y cantidad de


movimiento angular L vienen definidas por

p = m v = m ( r ) ijk j xk |ei i
o
ad

X
L= (r p) ijk xk pk |ei i ;

con = 1, 2, , n, |ei i = {i, j, k} y xi = {x, y, z}


rr

Muestre que:
P
a) L = m [(r r) r (r )].
 
b) Li = Iji j , donde Iji = m ji xk xk xi xj es el tensor momento de inercia para un sistema
P
Bo

de n partculas r gidamente unidas.


7. Dado un tensor generico de segundo orden Tij . Demostrar
   
a) Que el determinante det [T] det Tji = T y la traza tr Tji = Tii son invariantes, en otras
 i  i
palabras, det Tj y tr Tj son escalares respecto a transformaciones de coordenadas.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 189
3.8. EJERCICIOS PROPUESTOS

b) Si definimos la matriz adjunta adj [A], como la traspuesta de la matriz de cofactores


   T
T i j
adj [A] = (Ac ) adj Aij = (Ac )j = (Ac )i

i
donde la matriz de cofactores (Ac )j viene dada por
1 1 1
a11 a12 a13 (Ac )1 (Ac )2 (Ac )3

i c i 2 2 2
Aj = a21 a22 a32
(A )j = c
(A )1 (Ac )2 (Ac )3
a31 a32 a33 3
(Ac )1
3
(Ac )2
3
(Ac )3
y los cofactores son

ar
2 2 2
1 1+1 a2 a23 1 1+2 a1 a23 1 1+3 a2 a23
(Ac )1 = (1) 3 (Ac )2 = (1) 3 (Ac )3 = (1) 3
a2 a33 a1 a33 a2 a33

in
1 1 1
2 2+1 a2 a13 2 2+2 a1 a13 2 2+3 a1 a12
(Ac )1 = (1) 3 (Ac )2 = (1) 3 (Ac )3 = (1) 3
a2 a33 a1 a33 a1 a32

lim
1 1 1
3 3+1 a2 a13 3 3+2 a1 a13 3 3+3 a1 a12
(Ac )1 = (1) 2 (Ac )2 = (1) 2 (Ac )3 = (1) 2
a2 a23 a1 a23 a1 a22

Para la transformaci i = a xi con a un escalar constante, muestre que


on x
i
adj[T ]
1) ji = T j es un tensor
   
re
2) Su determinante det ji = y su traza tr ji = ii , tambien seran invariantes.
adj[ i ]
3) Tji = j
rP
4) T = 1

8. Dados dos sistemas de coordenadas ortogonales O


(x, y, z) y O
( x, y, z), donde el sistema de

coordenas O se obtiene rotando a O, /6 alrededor del eje z, para rotarlo /2 alrededor del eje x con
lo cual los ejes y y z coinciden.
o

a) Si tenemos los vectores


A = i + 2j + 3k , B = 2i + j + 3k
ad


Expreselos en el sistema de coordenadas O
( x, y, z).
b) El tensor de esfuerzos (tensiones normales y tangenciales a una determinada superficie) se expresa
en el sistema O
(x, y, z) como
rr


P1 0 P4
Pji = 0 P2 0
0 0 P3
Bo

Cual ser
a su expresi
(
on en el sistema de coordenadas O x, y, z)?

9. Suponga un sistema de coordenadas ortogonales generalizadas q 1 , q 2 , q 3 las cuales tienen las siguiente
relaci
on funcional con las coordenadas cartesianas
q 1 = x + y; q 2 = x y; q 3 = 2z;

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 190
3.8. EJERCICIOS PROPUESTOS


a) Compruebe que el sistema q 1 , q 2 , q 3 conforma un sistema de coordenadas ortogonales
b) Encuentre los vectores base para este sistema de coordenadas
c) Encuentre el tensor metrico y el elemento de volumen en estas coordenadas.

d ) Encuentre las expresiones en el sistema q 1 , q 2 , q 3 para los vectores

A = 2j ; B = i + 2j ; C = i + 7j + 3k

e) Encuentre en el sistema q 1 , q 2 , q 3 la expresion para las siguientes relaciones vectoriales

A B; A C; (A B) C

Que puede decir si compara esas expresiones en ambos sistemas de coordenadas?

ar
10. La relaci
on entre las coordenadas cartesianas (x, y) y las coordenadas bipolares (, ) viene dada por
a sinh() a sin()

in
x= ; y= ; con a = const
cosh() + cos() cosh() + cos()
a) Compruebe si los vectores base para las coordenadas bipolares son ortogonales

lim
b) Encuentre el tensor metrico para las coordenadas bipolares
c) Escriba las componentes covariantes y contravariantes para los vectores: i, j y i + 2j.

11. Demuestre que si


n
n (x) =
(1 + n2 x2 )
entonces Z



re n dx = 1 .
rP
12. Dada la siguiente sucesi
on de funciones
 2
1 sen(nx/2)
n (x) =
2n sen(x/2)
Demuestre que n (x) es una distribucion delta de Dirac al calcular
o

" Z  2 #
1 sen(nx/2)
ad

lm f (x) dx = f (0) .
n 2n sen(x/2)

13. Encuentre las transformadas de Fourier de las siguientes funciones:


rr

a) x
e , x>0
f (x) =
Bo

0, x<0

b) 1
h(1 a|x|) , |x| < a
f (x) =
1
0, |x| >

a

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 191
Bibliografa

ar
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici
on
(Academic Press, Nueva York)
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva

lim
York)
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)

[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition,
London:
re
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co
rP
Reading)
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Enginee-
ring (Cambridge University Press)
[8] Santal
o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
o

[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
ad

[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
rr
Bo

192
Captulo 4

ar
Matrices, Determinantes y Autovectores

in
lim
re
orP
ad
rr
Bo

193
4.1. OPERADORES LINEALES

4.1. Operadores Lineales


Definiremos como operador lineal (o transformacion lineal) a una operacion que asocia un vector |vi V1
un vector |v 0 i V2 y que respeta la linealidad, es decir esta funcion de V1 V2 cumple con

|v 0 i = T |vi / T [ |v1 i + |v2 i] = T |v1 i + T |v2 i |v1 i y |v2 i V1

Sencillamente, algo que actue sobre una suma de vectores en V1 y que es equivalente a la suma de sus
actuaciones sobre los vectores suma, es decir, a la suma en V2 .

Ejemplos

ar
1. Las siguientes transformaciones

|x0 i = T |xi (x0 , y 0 , z 0 ) = T {(x, y, z)}

in
claramente son lineales

T {(x, y, z)} = (x, 2y, 3z)

lim
T {a (x, y, z) + b (m, n, l)} = aT {(x, y, z)} + bT {(m, n, l)}
T {(ax + bm, ay + bn, az + bl)} = a (x, 2y, 3z) + b (m, 2n, 3l)
(ax + bm, 2 [ay + bn] , 3 [az + bl]) = (ax + bm, 2 [ay + bn] , 3 [az + bl])

T {(x, y, z)} = (z, y, x)


re
T {a (x, y, z) + b (m, n, l)} = aT {(x, y, z)} + bT {(m, n, l)}
T {(ax + bm, ay + bn, az + bl)} = a (z, y, x) + b (l, n, m)
rP
(az + bl, ay + bn, ax + bm) = (az + bl, ay + bn, ax + bm)

2. Cosas tan sencillas como la multiplicacion por un n umero es una transformacion (u operador) lineal
T : V V tal que
T |vi = |v 0 i = |vi
o

Claramente,
T [a |vi + b |wi] = aT |vi + bT |wi = a |vi + b |wi
ad

Obviamente, si = 1 tenemos la transformacion identidad que transforma todo vector en s mismo; si


on cero, vale decir que lleva a todo |vi V a al elemento cero |0i
= 0 tendremos la transformaci

3. La definici
on de producto interno tambien puede ser vista como una transformacion (operador) lineal
rr

T:VR
T |vi =
hc |vi
Otra vez:
Bo

T [a |vi + b |wi] = hc| [a |vi + b |wi] = a hc |vi + b hc |wi


por lo tanto es lineal. Esto implica que tambien la proyeccion de un determinado |vi V sobre un
subespacio S es un operador lineal, y lo denotaremos como

[|si hs|] |vi = hs |vi |si = |vs i con |si y |vs i S

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 194
4.1. OPERADORES LINEALES

acil si para un proyector T : Vm Sn con m > n de tal modo que para un vector
esta idea se extiende f
|vi Vm
Pm |vi |ui i ui m |vi = ui |vim |ui i = |vm i



con {hui |} base de Sn . Es claro que estamos utilizando la convencion de Einstein para la suma de
ndices.
4. Las ecuaciones lineales tambien pueden verse como transformaciones lineales. Esto es, considere una
on lineal T : Vn Vm . Por lo tanto asociaremos
transformaci

y 1 , y 2 , y 3 , , y m = T x1 , x2 , x3 , , xn
  
|yi = T |xi

umeros, aij , organizados de la siguiente forma


a traves de n m n

ar

i i j i = 1, 2, , m
y = aj x con
j = 1, 2, , n

in
una vez m
as,

T [ |vi + |wi] = T v 1 , v 2 , v 3 , , v n + w1 , w2 , w3 , , wn = aij v j + aij wj


  

lim
= T v 1 + w1 , v 2 + w2 , v 3 + w3 , , v n + wn
 

j
= aij (v + w) = aij v j + aij wj = aij v j + wj


5. La derivada es un operador lineal. As podemos representar el operador lineal diferenciacion como


d dy(x)

es claro que
|v 0 i = T |vi |y 0 i = D |yi
re
D [y(x)]
dx
[y(x)]

D [f (x) + g(x)] = D[f (x)] + D[g(x)] f 0 (x) + g 0 (x)


dx
y 0 (x)
rP
igualmente podemos asociar un operador diferencial de cualquier orden a una derivada del mismo
orden, esto es
d2 d2 y(x)
|y 00 i = D2 |yi D2 [y(x)] [y(x)] y 00 (x)
dx2 dx2
o

d3 d3 y(x)
|y 000 i = D3 |yi D3 [y(x)] 3
[y(x)] y 000 (x)
dx dx3
ad

..
.

(n)
E dn dn y(x)
= Dn |yi Dn [y(x)] n
[y(x)] y (n) (x)
dx dxn
y
rr

6. Igualmente, cualquier ecuaci


on diferencial lineal es un ejemplo de operador lineal, esto es

y 00 3 y 0 + 2 y = D2 3D + 2 y(x)

Bo

es claro que si y(x) = f (x) + g(x) la linealidad es evidente


00 0
(f (x) + g(x)) 3 (f (x) + g(x)) + 2 (f (x) + g(x)) = (f 00 3 f 0 + 2 f ) + g 00 3 g 0 + 2 g

D 3D + 2 (f (x) + g(x)) = D 3D + 2 f (x) + D2 3D + 2 g(x) .
2 2
  

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 195
4.1. OPERADORES LINEALES

7. La integral tambien es un operador lineal


Z x
g(x) = f (t)dt  T {f (t)}
a

8. Otro ejemplo tpico son los operadores de transformaciones integrales


Z b
F (s) = K (s, t) f (t)dt  T {f (t)}
a

donde K (s, t) es una funcion conocida de s y t, denominada el n ucleo de la transformacion. Si a y b


son finitos la transformaci
on se dir
a finita, de lo contrario infinita.

ar

As, si f (t) = f1 (t) + f2 (t) con f1 (t) y f2 (t) C[a,b] es obvio que:
Z b Z b Z b

in
F (s) = K (s, t) [f1 (t) + f2 (t)] = K (s, t) f1 (t)dt + K (s, t) f2 (t)dt
a a a

F (s) = F (s1 ) + F (s2 )  T {[f1 (t) + f2 (t)]} = T {f1 (t)} + T {f2 (t)}

lim
Dependiendo de la selecci
on del n
ucleo y los limites tendremos distintas transformaciones integrales.
En Fsica las m
as comunes son:
Nombre F (s) = T {f (t)} f (t) = T1 {F (s)}

Laplace

Fourier de senos y cosenos


F (s) =

F (s) =
Z
R
0
re
est f (t)dt

sen(st)
f (t)dt
f (t) =

f (t) =
Z
1
2i


R +i
i

sen(st)
est F (s)ds

F (s)ds
rP
0 cos(st) 0 cos(st)
Z Z
Fourier compleja F (s) = e ist
f (t)dt f (t) = eist F (s)ds

Z Z
o

Hankel F (s) = tJn (st)f (t)dt f (t) = sJn (ts)F (s)ds


0 0
ad

Z R +i
Mellin F (s) = ts1 f (t)dt f (t) = 1
2i i
st F (s)ds
0
rr

4.1.1. Espacio vectorial de operadores lineales


Un conjunto de operadores lineales {A, B, C } : V1 V2 puede constituir un espacio vectorial lineal
Bo

si se dispone entre ellos de la operaci on suma y la multiplicacion por un n umero. As, claramente, dado
{A, B, C }, y definida

A [ |v1 i + |v2 i] = A |v1 i + A |v2 i
(A + B) |vi A |vi + B |vi /
B [ |v1 i + |v2 i] = B |v1 i + B |v2 i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 196
4.1. OPERADORES LINEALES

es directo comprobar que

(A + B) [ |v1 i + |v2 i] = A [ |v1 i + |v2 i] + B [ |v1 i + |v2 i]


= ( A |v1 i + A |v2 i) + B |v1 i + B |v2 i
= ( A |v1 i + B |v1 i) + A |v2 i + B |v2 i

(A + B) [ |v1 i + |v2 i] = A [ |v1 i + |v2 i] + B [ |v1 i + |v2 i]

Igualmente, se cumple que


(A + B) + C = A+ (B + C)

ar
con A + B + C lineales en V

[(A + B) + C] |vi = (A + B) |vi + C |vi |vi V1


= A |vi + B |vi + C |vi

in
= A |vi + (B + C) |vi
= [A+ (B + C)] |vi ,

lim
del mismo modo se puede comprobar f
acilmente

A+B=B+A

on cero de V1 V2 tal que


Ahora bien, si definimos la transformaci

|0i = O |vi |vi V1


re
le asigna a el vector |0i V2 |vi V1 , entonces el operador lineal O sera el elemento neutro respecto
a la suma de operadores. Finalmente, el elemento simetrico queda definido por
rP
(A) |vi = A |vi (A A) |vi = O |vi = |0i

Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora en
adelante denominaremos L (V1 , V2 ) .
o

4.1.2. Composici
on de operadores lineales
ad

El producto o composicion de dos operadores lineales, A y B se denotara AB y significara que primero se


aplica B y al resultado se aplica A. Esto es

AB |vi = A (B |vi) = A | v0 i
v i = |
rr

La composici
on de funciones cumple con las siguientes propiedades

(AB) C = A (BC) ; (AB) = (A) B = A (B) ;


Bo

(A1 + A2 ) B = A1 B + A2 B ; A (B1 + B2 ) = AB1 + AB2

Es decir, que la composicion de operadores es asociativa y distributiva a la suma y que conmuta respecto a
la multiplicaci
on por n
umeros.
Por otro lado si I es el operador Identidad

I |vi = |vi AI = IA = A .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 197
4.1. OPERADORES LINEALES

En general AB 6= BA, por lo tanto podemos construir el conmutador de estos operadores como

[A, B] = AB BA / [AB BA] |vi = AB |vi BA |vi

Es inmediato comprobar algunas de las propiedades mas u


tiles de los conmutadores:

[A, B] = [B, A]
[A, (B + C)] = [A, B] + [A, C]
[A, BC] = [A, B] C + B [A, C]
0 = [A, [B, C]] + [B, [C, A]] + [C, [A, B]]

ar
Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto interno
de dos vectores
hv2 | (A |v1 i) A(|v1 i,|v2 i) ,

in
es claro que A(|v1 i,|v2 i) ser
a en general un n
umero complejo, pero esto lo veremos detalladamente en la
Secci
on 4.2.
Diremos que dos espacios vectoriales V1 , V2 son isomorfos si existe una transformacion

lim
A : V1 V2 |v 0 i = A |vi ,

denominada isomorfsmo, tal que:


1. A es biyectiva

re
2. A es lineal: A [ |v1 i + |v2 i] = A |v1 i + A |v2 i |v1 i y |v2 i V1 .

El que A sea biyectiva nos garantiza que existe la transformacion inversa A1 , que tambien sera biyectiva.
Es decir, podramos hablar de manera equivalente de una transformacion F : V2 V1 . Volveremos a este
rP
tema mas adelante.

Ejemplos
1. Potencias de Operadores: Uno de los ejemplos mas u tiles en la composicion de operadores lo
constituyen las potencias de los operadores, las cuales provienen de la aplicacion consecutiva de un
o

mismo operador,
ad

A0 = I ; A1 = A ; A2 = AA ; A3 = A2 A = AAA ;

es claro que las potencias de operadores cumplen las propiedades estandares de las potencias de n
umeros
m
An+m = An Am ; (An ) = Anm .
rr

Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0 del tipo An |vi = |0i |vi V1
y |0i V2 . Es decir, un operador que lleva cualquier vector |vi al elemento neutro de V2 . El ejemplo
Bo

mas notorio es el operador diferencial


dn dn  i 
Dn P n1 = |0i

 P n1 (x) = ai x = 0 ,
dxn dxn

con P n1 perteneciente al espacio de polinomios de grado n 1.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 198
4.1. OPERADORES LINEALES


2. Operador Ecuaciones Diferenciales. Si consideramos el espacio de funciones f (x) C[a,b] podemos
construir un operador diferencial

d2 dn
 
d
a0 + a1 D + a2 D2 + + an Dn |f i
 
a0 + a1 + a2 2 + + an n f (x) ,
dx dx dx

con {a0 , a1 , a2 , an } coeficientes constantes. De este modo, por ejemplo


 2 
d d
D2 3D + 2 y = (D 1) (D 2) y y(x) = y 00 3 y 0 + 2 y .

3 + 2
dx2 dx

4.1.3. Proyectores

ar
La notacion de Dirac se hace particularmente conveniente para representar proyectores. Hasta ahora,
hemos relacionado un funcional lineal, un bra hw| del espacio dual V , con un vector ket |vi del espacio
vectorial V a traves de su producto interno hw| vi, el cual es, en general, un n umero complejo. Ahora

in
on entre vectores y formas diferenciales de una manera diferente: la relacion entre hw|
escribiremos esta relaci
y |vi un ket |i o un bra h| arbitrarios puede ser

lim
|vi hw| i
|vi hw|
h |vi hw|

La primera ser on del vector |vi por el n


a la multiplicaci umero complejo hw| i, mientras que la segunda
relaci
on ser on de la forma hw| por el complejo h |vi. Es imperioso se
a la multiplicaci nalar que el orden en
la escritura de los vectores y formas es crtico, solo los n
a traves de estas relaciones

|vi = |vi = |vi ,


re
umeros complejos se pueden mover con impunidad

hw| = hw| = hw|


rP
hw| |vi = hw| vi = hw| vi y A |vi = A |vi = A |vi .

Por lo tanto, dado un vector |vi, podemos construir un proyector P|vi a lo largo del vector |vi

P|vi |vi hv| , con hv| vi = 1 ,


o

siempre y cuando este operador lineal cumpla


ad

P|vi [ |z1 i + |z2 i] = P|vi |z1 i + P|vi |z2 i


|vi hv| [ |z1 i + |z2 i] = |vi hv| |z1 i + |vi hv| |z2 i = |vi hv |z1 i + |vi hv |z2 i ,

adem
as:
rr

P2|vi = P|vi (|vi hv|) (|vi hv|) = |vi hv|


P|vi P|vi |zi = (|vi hv|) (|vi hv|) |zi = |vi hv |vi hv |zi = |vi hv |zi = P|vi |zi .
Bo

| {z }
1

As, el operador P|vi actuando sobre el vector |i representara la proyeccion de |i a lo largo de |vi

P|vi |i = |vi hv| i hv| i |vi .

Es inmediato construir un proyector de un vector sobre un subespacio Sq .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 199
4.1. OPERADORES LINEALES

Sea {|e1 i , |e2 i , |e3 i , , |eq i} un conjunto ortonormal de vectores que expande Sq , por lo tanto, defini-
remos el proyector Pq al proyector sobre el subespacio Sq de la forma
Pq = |ei i ei q ,

es claro que P2q = Pq :


ji



z }| {

P2q |vi = Pq Pq |vi P2q |vi = |ei i ei q |ej i ej q |vi = |ei i ei |ej i ej |vi = |ej i ej |vi Pq |vi

|vi V.

ar
4.1.4. Funciones de operadores
Bas
andonos en el primero de los ejemplos anteriores se puede construir un polinomio en potencias de
los operadores:

in
Pn (x) = a0 + a1 x + a2 x2 + + an xn = ai xi
Pn (A) |vi = a0 + a1 A + a2 A2 + + an An |vi = ai Ai |vi |vi V1 .
   

lim
Lo anterior nos permite extender la idea de operadores a funciones de operadores, es decir, si nos saltamos
todos los detalles de convergencia de la serie anterior, los cuales dependeran de los autovalores de A y de
su radio de convergencia; entonces, as como podemos expresar cualquier funcion F (z) como una serie de
potencias de z en un cierto dominio, podremos expresar la funcion de un operador, F (A), como una serie
de potencias del operador A, esto es

Por ejemplo, podemos expresar


re
F (z) = ai z i  F (A) |vi = ai Ai |vi .
 
rP

" #
An An
 
A
X A
e |vi = |vi = I + A + + + |vi .
n=0
n! 2! n!

En este caso hay que hacer una acotaci on, dado que, en general, [A, B] 6= 0 eA eB 6= eB eA 6= eA+B .
Esta afirmaci
on se corrobora de manera inmediata al desarrollar las exponenciales
" #" # " #
o

X An X Bm X X An Bm
eA eB |vi = |vi = |vi ,
n=0
n! m=0
m! n=0 m=0
n! m!
ad


" #" # " #
B A
X Bn X Am X X Bn Am
e e |vi = |vi = |vi ,
n=0
n! m=0
m! n=0 m=0
n! m!
rr


" #
n
X (A + B)
eA+B |vi = |vi ,
Bo

n=0
n!

olo en el caso que [A, B] = 0 eA eB = eB eA = eA+B .


s
La demostracion es inmediata pero requiere expandir y rearreglar las sumatorias arriba expuestas.
Mas adelante, en la Secci
on 4.3.2, demostraremos con detalle la relacion de Glauber:
1
eA eB = eA+B e 2 [A,B] .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 200
4.1. OPERADORES LINEALES

4.1.5. Espacio Nulo e Imagen


El conjunto de todos los |vi V1 / A |vi = |0i, se denomina espacio nulo, n
ucleo o kernel (n
ucleo en
alem on A y lo denotaremos como (A). En smbolos diremos que
an) de la transformaci

(A) = {|vi V1 A |vi = |0i} .

Adicionalmente, (A) V1 ser a un subespacio de V1 . La prueba de esta afirmacion es inmediata. Dados


|v1 i , |v2 i (A), con A un operador lineal, es claro que

A |v1 i = |0i
1 A |v1 i + 2 A |v2 i = |0i = A (1 |v1 i + 2 |v2 i) ,
A |v2 i = |0i

ar

on se tiene que el elemento neutro esta contenido en (A), esto es


por la misma raz

A | vi = |0i |vi V1 A |0i = |0i si = 0 ,

in
por lo tanto, queda demostrado que (A) es un subespacio de V1 .
Por otra parte, definiremos imagen (rango o recorrido) de A, y la denotaremos como

lim
= (A) = {|v 0 i V2 A |vi = |v 0 i} ,

igualmente = (A) V2 tambien ser a un subespacio de V2 ya que si |vi = 1 |v1 i + 2 |v2 i y dado que A
es un operador lineal, se cumple que

| {z
|vi
}

| {z }
|v10 i
re
A 1 |v1 i + 2 |v2 i = 1 A |v1 i + 2 A |v2 i = 1 |v10 i + 2 |v20 i .

| {z } |
|v20 i
{z
|v 0 i
}
rP
on finita, A {V} = n tambien sera de dimension finita n y tendremos que
Es claro que si V es de dimensi

dim [ (A)] + dim [= (A)] = dim [V] ,

vale decir, que la dimensi on del n ucleo m as la dimension del recorrido o imagen de una transformacion lineal
o

es igual a la dimensi on del dominio.


Para demostrar esta afirmaci on supongamos que dim [V] = n y que {|e1 i , |e2 i , |e3 i |ek i} V es una
ad

base de (A), donde k = dim [ (A)] n.


Como {|e1 i , |e2 i , |e3 i |ek i} V estos elementos forman base, y por lo tanto, son linealmente inde-
pendientes, necesariamente ellos formar an parte de una base mayor de V.
Esto es: {|e1 i , |e2 i , |e3 i , , |ek i , |ek+1 i , , |ek+r1 i , |ek+r i} V sera una base de V donde k+r = n.
El esquema de la demostraci on ser a:
rr

primero probaremos que {A {|ek+1 i} , A {|ek+2 i} , , A {|ek+r1 i} , A {|ek+r i}} forman una base para
A {V}
Bo

luego demostraremos que dim [A {V}] = r y como hemos supuesto que k + r = n habremos demostrado
la afirmaci
on anterior.
Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , , A {|ek+r1 i} , A {|ek+r i}} expanden A {V} entonces cual-
quier elemento
|wi A {V} / |wi = A |vi = C i |Aei i , con |Aei i = A |ei i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 201
4.1. OPERADORES LINEALES

Ahora bien, analicemos con cuidado los lmites de la suma implcita del ndice i = 1, 2, , k + r

|wi = C i |Aei i = C 1 |Ae1 i + C 2 |Ae2 i + + C k |Aek i + C k+1 |Aek+1 i + + C k+r |Aek+r i


| {z }
=|0i ya que A|e1 i=A|e2 i=A|e3 i=A|ek i=|0i

Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , , A {|ek+r1 i} , A {|ek+r i}} expanden A {V}. Ahora bien, para de-
mostrar que son base, demostraremos que son linealmente independientes, para ello supondremos que
 k+1 k+2
, , C k+r / C i |Aei i = 0

C ,C con i = k + 1, k + 2, , k + r

y tenemos que demostrar que C k+1 = C k+2 = = C k+r = 0. Entonces

ar
C i |Aei i = C i A |ei i = A C i |ei i = 0 con i = k + 1, k + 2, , k + r


por lo tanto el elemento |vi = C i |ei i (A) con i = k + 1, k + 2, , k + r. Con lo cual, dado que
|vi (A) , |vi = C i |ei i con i = 1, 2, , r, entonces se puede hacer la siguiente resta

in
k
X k+r
X
|vi |vi = C i |ei i C i |ei i
i=1 i=k+1

lim
y como los {|e1 i , |e2 i , |e3 i , , |ek i , |ek+1 i , , |ek+r1 i , |ek+r i} son una base de V entonces las C k+1 =
C k+2 = = C k+r = 0.

Ejemplos

|vi V1 / I |vi = |vi


re
1. Transformaciones Identidad: Sea I : V1 V2 , la transformacion identidad,

(I) = {|0i} V1 = (I) V1


rP
2. Sistemas de ecuaciones lineales: En Vn las soluciones a los sistemas de ecuaciones lineales repre-
sentan el espacio nulo, (A), para vectores de Vn

A11 A12 A1n x1 0
A21 A22 x2 0
A |xi = |0i  . =  Aij xi = 0 ,

. .. ..
o

.. ..
. .
An1 An2 Ann xn 0
ad

con j ecuaciones (j = 1, 2, , n). Recordemos que estamos utilizando la convencion de Einstein para
suma de ndices.
2
3. Ecuaciones diferenciales ordinarias: Sea C[,] el espacio vectorial de todas las funciones con-
rr

2
tinuas doblemente diferenciables. Definimos A : C[,] C[,] como la transformacion lineal
2
 2
D 1 tal que para todas las y(x) C[,] se cumple
Bo

d2
 
D2 1 y(x) = 0 y(x) = y 00 y = 0 .

A |xi = |0i   1
dx2

ucleo o espacio nulo de A, (A), lo constituyen el conjunto de soluciones para la mencionada


El n
ecuaci
on diferencial. Por lo tanto, el problema de encontrar las soluciones de la ecuacion diferencial es
equivalente a encontrar los elementos del n ucleo de A.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 202
4.1. OPERADORES LINEALES

4.1.6. Operadores biyectivos e inversos


Se dice que A : V1 V2 es biyectivo (uno a uno o biunvoco) si dados |v1 i , |v2 i V1 , |v 0 i V2 , se
tiene que
A |v1 i = |v 0 i A |v2 i = |v 0 i |v1 i = |v2 i ,
es decir, ser
a biyectiva si A transforma vectores distintos de V1 en vectores distintos de V2 . Mas a un, se
puede afirmar que una transformaci on lineal A, sera biyectiva si y solo si (A) = {|0i}. Vale decir, si el
subespacio nulo est a constituido, unicamente por el elemento neutro del espacio vectorial.
La demostraci on es sencilla. Supongamos que A es biyectiva y que A |vi = |0i, entonces |vi = |0i, es
decir, A |0i = |0i, por consiguiente (A) = {|0i}. Recprocamente, si

ar

(A) = {|0i}
A |v1 i A |v2 i = |0i = A |v1 i |v2 i |v1 i = |v2 i .

A |v1 i = A |v2 i
| {z }
|v i|v i=0
1 2

in
La importancia de las transformaciones lineales uno a uno o biyectivas reside en la posibilidad de definir
inversa, debido a que siempre existe en V2 un vector |v 0 i asociado a traves de A con un vector |vi V1 .
Diremos que A1 : V2 V1 es el inverso de A, si A1 A = I = AA1 .

lim
Habra que hacer un par de comentarios al respecto. El primero es que, tal y como hemos enfatizado
arriba, en general, los operadores no conmutan entre si, y los inversos no son una excepcion. Es decir, deberan
existir (y de hecho existen) inversas por la izquierda A1 A e inversas por la derecha AA1 . Por simplicidad
e importancia en Fsica obviaremos esta dicotoma y supondremos que A1 A = I = AA1 . El segundo
comentario tiene que ver con la existencia y unicidad del inverso de un operador lineal. Algunos operadores
tienen inverso, otros no, pero aquellos quienes tienen inverso, ese inverso es unico. Veamos, supongamos que

A1
1 A |vi = |vi

A1 1
re 1
1 A |vi A2 A |vi = |0i = A1 A2
1

A |vi A1
1 = A2 .
1
rP
A1
2 A |vi = |vi
| {z }
1 1
A1 =A2

Ahora bien, un operador lineal A tendra inverso s y solo s para cada vector |v 0 i V2 |vi
V1 / A |vi = |v 0 i. Es decir, cada vector |v 0 i esta asociado con uno y solo un vector |vi a traves de la
transformacion lineal A. Dejaremos sin demostracion esta afirmacion pero lo importante es recalcar que para
o

que exista inverso la transformaci on lineal A, tiene que ser biyectiva y esto implica que se asocia uno y s
olo
un vector de V1 con otro de V2 .
ad

Todava podemos a nadir algunas demostraciones consecuencias de las afirmaciones anteriores. Sea la
transformacion lineal T : V1 V2 y supongamos ademas que T L (V1 , V2 ). Entonces las siguientes
afirmaciones son v alidas y equivalentes

1. T es biyectiva en V1
rr

2. T es invertible y su inversa T1 : T {V1 } V1 es lineal


3. |vi V1 , T {|vi} = |0i |vi = |0i esto es, el espacio nulo (T) u
nicamente contiene al elemento
Bo

neutro de V1 .

Si ahora suponemos que V1 tiene dimension finita, digamos dim [V1 ] = n, las siguientes afirmaciones
ser
an validas y equivalentes

1. T es biyectiva en V1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 203
4.1. OPERADORES LINEALES

2. Si {|u1 i , |u2 i , |u3 i , |un i} V1 son linealmente independientes, entonces, el conjunto de trans-
formaciones lineales: {T {|u1 i} , T {|u2 i} , T {|u3 i} , T {|un i}} T {V1 } tambien sera linealmente
independientes.
3. dim [T {V1 }] = n.
4. Si {|e1 i , |e2 i , |e3 i |en i} V1 es una base de V1 , entonces {T {|e1 i} , T {|e2 i} , T {|e3 i} T {|en i}}
T {V1 } es una base de T {V1 }.

4.1.7. Operadores hermticos conjugados


Definiremos la acci
on de un operador A sobre un bra de la forma siguiente

ar
(hw| A) |vi = hw| (A |vi) ,
| {z } | {z }
hw0 | |v 0 i

in
por lo cual, lo que estamos diciendo es que no importa donde opere A. Recordemos que cada vector en V
tiene asociado un vector en V .
Podemos demostrar que A operando sobre los bra es lineal. Esto es, dado

lim
hw| = 1 hz1 | + 2 hz2 |
(hw| A) |vi (1 hz1 | + 2 hz2 | A) |vi = (1 hz1 | + 2 hz2 |) (A |vi) = 1 hz1 | (A |vi) + 2 hz2 | (A |vi)
= 1 (hz1 | A) |vi + 2 (hz2 | A) |vi .

Siguiendo con esta logica podemos construir la accion del operador hermtico conjugado, A . Para ello

transformado A |vi = |v 0 i le corresponder re


recordamos que igual que a cada vector (ket) |vi le esta asociado una forma lineal (bra) hv|, a cada ket
a un bra transformado hv 0 | = hv| A . Por lo tanto
rP
|vi hv|
0
|v i = A |vi hv 0 | = hv| A .

Ahora bien, si A es lineal, A tambien lo sera, dado que a un vector |wi = 1 |z1 i + 2 |z2 i le corresponde
un bra hw| = 1 hz1 | + 2 hz2 | (la correspondencia es antilineal). Por lo tanto, |w0 i = A |wi = 1 A |z1 i +
2 A |z2 i , por ser A lineal, entonces
o

|w0 i hw0 | hw| A = (1 hz1 | + 2 hz2 |) A 1 hz10 | + 2 hz20 | = 1 hz1 | A + 2 hz2 | A .


ad

Es claro que de la definici


on de producto interno en la notacion de Dirac, se desprende

hx0 | yi = hy| x0 i |x0 i = A |xi , |yi V hx| A |yi = hy| A |xi |xi , |yi V .
rr

Igualmente se pueden deducir las propiedades de los operadores hermticos conjugados



A = A; (A) = A ; (A + B) = A + B ; (AB) = B A .
Bo

Esta u
ltima propiedad es facilmente demostrable y es educativa su demostracion. Dado que |v 0 i = AB |vi, y
ademas se tiene que

|
v i = B |vi

hv 0 | = hv | A = hv| B A = hv| (AB) .
|v 0 i = A |
vi

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 204
4.1. OPERADORES LINEALES

A partir de las propiedades anteriores se deriva una mas u


til relacionada con el conmutador
   
[A, B] = A , B = B , A .
La conclusiones a las que llegamos resultan ser que para obtener el hermtico conjugado de una expresi
on
se debe proceder de la siguiente manera:
Cambiar constantes por sus complejas conjugadas  .
Cambiar los kets por sus bras asociados y viceversa (bras por kets): |vi  hv|.
Cambiar operadores lineales por sus hermticos conjugados A  A.
Inviertir el orden de los factores.

ar
De este modo

(|vi hw|) = |wi hv| ,

in
que se deduce f
acilmente de la consecuencia de la definicion de producto interno
 

hx| |vi hw| |yi = hy| (|vi hw|) |xi = hy| |vi hw| |xi = hx| |wi hv| |yi .

lim
4.1.8. Operadores hermticos
Existe un conjunto de operadores que se denominan hermticos a secas o autoadjunto. Un operador
a aquel para el cual A = A. Con esto
hermtico (o autoadjunto) ser

hx| A |yi = hx| A |yi = hy| A |xi .
Estos operadores juegan el rol de los n re
umeros reales en el sentido de que son iguales a su propio complejo
conjugado y se utilizan como los observables en la Mecanica Cuantica.
rP
Claramente los proyectores son autoadjuntos por construccion

P|vi (|vi hv|) = |vi hv| .

Si A = A el operador lineal se denomina antihermtico.


o

4.1.9. Operadores unitarios


Por definici
on, un operador ser
a unitario si su inversa es igual a su adjunto. Esto es
ad

U1 = U U U = UU = I
De estos operadores podemos decir varias cosas:
rr

Las transformaciones unitarias dejan invariantes al producto interno y consecuentemente la norma de


vectores, esto se demuestra facilmente. Dados dos vectores |xi , |yi sobre los cuales act
ua un operador
unitario
Bo


|
xi = U |xi
h xi = hy| U U |xi = hy |xi .
y |
|
y i = U |yi

Es claro que si A es hermtico, A = A, el operador T = eiA es unitario.



T = eiA T = eiA = eiA TT = eiA eiA = I = T T = eiA eiA .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 205
4.1. OPERADORES LINEALES

El producto de dos operadores unitarios tambien es unitario. Esto es, si U y V son unitarios entonces
(UV) (UV) = V U
|{z}UV = V V = I
I

(UV) (UV) = UVV
|{z}U = UU = I .
I

4.1.10. Ejercicios
al de las siguientes transformaciones definidas sobre V3 son lineales
1. Cu
a) T |xi = |xi + |ai donde |ai es un vector constante diferente de cero.
b) T |xi = |ai

ar
c) T |xi = ha |xi |ai
d) T |xi = ha |xi |xi

in
2. Considere las siguientes operaciones en el espacio de los polinomios en x y diga si corresponden a
transformaciones lineales:
a) La multiplicaci
on por x. b) La multiplicacion por x2 . b) La diferenciacion.

lim
3. Dado un operador hermtico A y uno unitario U, pruebe las siguientes afirmaciones
1 
a) En general C = C1 , con C un operador generico.
= U1 AU es tambien un operador hermtico
b) A
= iA
c) Si A es antihermtico entonces A
d ) La composici
re
on de dos operadores, A y B hermticos sera hermtica si y s
olo si A y B conmuntan.
e) Si S es un operador real y antisimetrico, pruebe que el operador A = (I S) (I + S)
operador ortogonal.1
es un
1
rP
f ) Si  
cos() sen()
A . Encuentre la expresion para S.
sen() cos()

4. Si un operador lineal C NO es hermtico, entonces pruebe que C + C y i C C , con i = 1,
 

seran hermticos. Esto, obviamente implica que siempre podremos separar un operador lineal como
o

1  1
C = C + C + C C .

2 2
ad

donde C + C representa su parte hermtica y C C su parte antihermtica.



 

5. Suponga que un operador L puede ser escrito como la composicion de otros dos operadores L = L L+
con [L , L+ ] = I. Demostrar que
rr

Si L |xi = |xi y |yi = L+ |xi entonces L |yi = ( + 1) |yi


y, del mismo modo, demuestre que
Bo

Si L |xi = |xi y |zi = L |xi entonces L |zi = ( 1) |zi

Por ello es costumbre denominar a L+ y L los operadores de subidas y de bajada respectivamente,


ya que ellos construyen otros vectores con autovalores mayores (menores) en una unidad al vector
operado.
1 Esto es AT = A1 con AT el traspuesto de A.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 206
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

4.2. Representaci
on matricial de operadores
Supongamos un operador lineal A en el espacio vectorial de transformaciones lineales L (V, W) donde
dim (V) = n y dim (W) = m, y sean {|e1 i , |e2 i , |e3 i , |en i} y {|e1 i , |e2 i , |e3 i , |em i} las bases para
V y W respectivamente. Entonces A |ei i W
A |ei i = A
i |
e i con i = 1, 2, .., n y = 1, 2, .., m .
Las A
i son las componentes de la expansion de A |ei i en la base {|e1 i , |e2 i , |e3 i , |em i}.
Para un vector generico |xi tendremos que
| |e i
xi = A |xi = x pero, a su vez |xi = xi |ei i ,

ar
con lo cual
|e i = A xi |ei i = xi A |ei i = xi A x i A = A i
 
|
xi = A |xi = x i |
e i x i |e i = 0 x i x .

in
Varias cosas se pueden concluir hasta este punto:
1. Si acordamos que los ndices de arriba indican filas podemos representar los vectores como un arreglo
vertical de sus componentes y las cantidades A i por una matriz.

lim
1
A1 A12 A1j A1n

1 A21 A22 A2j A2n
x
. .

x 2 .. . .. ..


|xi . , Ai ,


.. 1 A A 2 A j A n
xn
.
..
m
A1 A2
..
.
mre Ajm
..
.
m
An


rP
de tal modo que se cumpla
A11 A12 A1j A1n

1 x1

x
2
x A21 A22 A2j A2n
x2

..

.. .. .. ..


. . . .
.

|
xi = .

x A A A
An j
x
o

1 2 j
.. ..
..
. . .

m
x xn
ad

Am 1 Am2 Am
j Am
n

Las cantidades A j es la representacion del operador A en las bases {|en i} y {|em i} de V y W respec-
tivamente. Es decir, definiremos una matriz Aij como un arreglo de n umeros donde el superndice, i,
rr

indica fila y el subndice, j, columna:


1
A1 A12 A1n
1
A1
A21 A22 A 2 2
A1
n

Bo

Aij = . A11 A12 A1n .



, ,

. .
.. .. ..


An1 An2 Ann An1

2. Diremos que las componentes de los vectores transforman como


= A
x i
i x .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 207
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

3. Si suponemos {|e1 i , |e2 i , |e3 i , |en i} y {|e1 i , |e2 i , |e3 i , |em i} bases ortonormales

= he | xi = he | A |xi = he | A xi |ei i = xi he | A |ei i ,



x

queda claro que A e | A |ei i ser


i h a la representacion matricial de la transformacion lineal A.

4. Los vectores |ek i transforman de la siguiente manera

|ei i = Aji |ej i ,

donde {|ei i} y {|ej i} son las bases para V y W respectivamente.

ar
Definitivamente, las matrices son uno de los objetos mas u
tiles de las Matematicas. Ellas permiten aterri-
zar conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James Joseph Sylvester2
y su teora desarrollada por Hamilton3 y Cayley4 . Si bien los fsicos las consideramos indispensables, no
fueron utilizadas de manera intensiva hasta el aparicion de la Mecanica Cuantica alrededor de 1925.

in
4.2.1. Bases y la representaci
on matricial de operadores
Es importante recalcar que la representacion matricial de un operador depende de las bases {|en i} y

lim
{|em i} de V y W respectivamente. Si tenemos otras bases ortonormales para V y W vale decir, {|en i} y
{|em i} su representaci
on ser a distinta. Esto es:

A11 A12 A1j A1n



A2 A2 A2j A2n
1 2

he | A |ej i = A
.
.
j
.
A1 A
..

..
2
re
..
.
A
j
..

..
.
A
n



.


rP
.

. .
Am Am 1 2Am Am
n
j

Cambiando el orden en el cual se presenta una base, cambia la representacion matricial del operador. Los
siguientes ejemplos tratar
an de ilustrar estas situaciones:
o

Ejemplos
ad

1. Si tenemos un matriz B, 2 3, de la forma


 
3 1 2
B=
1 0 4
rr

2 James Joseph Sylvester (1814-1897 Londres, Inglaterra) Adem as de sus aportes con Cayley a la teora de las matrices,
descubri o la soluci
on a la ecuaci
on c
ubica y fue el primero en utilizar el t
ermino discriminante para categorizar cada una de las
races de la ecuacion. Para vivir tuvo que ejercer de abogado durante una d ecada. Por fortuna, otro matem atico de la
epoca
(Arthur Cayley) frecuentaba los mismos juzgados y tribunales y pudieron interactuar. Por ser judo tuvo cantidad de dificultades
Bo

para conseguir trabajo en la Academia.


3 Sir William Rowan Hamilton (1805 - 1865, Dublin, Irlanda) Sus contribuciones en el campo de la optica, dinamica del
cuerpo rgido, teora de ecuaciones algebraicas y teora de operadores lineales.
4 Arthur Cayley (1821, Richmond, 1895, Cambridge, Inglaterra) En sus cerca de 900 trabajos cubri o casi la totalidad de
las areas de las matem aticas de aquel entonces. Sus mayores contribuciones se centran el la teora de matrices y la geometra
no euclideana. No consigui o empleo como matem atico y tuvo que graduarse de abogado para ejercer durante m as de 15 anos,
durante los cuales public o mas de 250 trabajos en matem aticas.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 208
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

y suponemos las bases can onicas para V3 y V2 : {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i}. Entonces la matriz B
representa la transformaci on B : V3 V2 que lleva un vector generico |xi = (x1 , x2 , x3 ) a un vector
generico |yi = (y1 , y2 ) tal que

    x1  
3 1 2 3 1 2 y1
B= B |xi = |yi x2 =
1 0 4 1 0 4 y2
x3

y esto es

y1 = 3x1 + x2 2x3
y2 = x1 + 0x2 + 4x3 .

ar
La representaci
on matricial dependera de la base en la cual se exprese.

2. Si suponemos el operador diferencial D () = d()

in
dx cuyo dominio esta conformado por el espacio vectorial
de los polinomios de  grado 3, entonces
 tendremos
que: D () : P3 P2 . En este caso las bases
2 3
podran ser: |pi i = 1, x, x , x y | pj i = 1, x, x de P3 y P2 respectivamente.
2

lim
Al operar (diferenciar) sobre el |pj i P3 y expresar ese resultado en la base de P2 tenemos:
d(1)
dx
= 0 = 0 1 + 0 x + 0 x2




d(x)

= 1 = 1 1 + 0 x + 0 x2

0 1 0 0

dx


D |pj i h
p | |p i = 0 0 2 0 .








d(x2 )
dx

d(x3 )


re
= 2x = 0 1 + 2 x + 0 x 2
D j

0 0 0 3
rP
dx = 3x2 = 0 1 + 0 x + 3 x2

Los coeficientes de esa expansi


on seran las columnas de la matriz que los representa. Para enfatizar,
los elementos de una matriz, no s
olo dependen de la base sino del orden en el cual la base se presente.
Consideremos que la base de P2 viene representada por | pj i = x2 , x, 1 , la representacion matricial
del operador D () = d()
dx ser
a
o

d(1)
= 0 = 0 x2 + 0 x + 0 1
ad

dx






d(x)

= 1 = 0 x2 + 0 x + 1 1

0 0 0 3

dx

D |pj i p | D |pj i = 0 0 2 0 .
h
d(x2 )
= 2x = 0 x2 + 2 x + 0 1 0 1 0 0

rr




dx



d(x3 )


dx = 3x2 = 3 x2 + 0 x + 0 1
Bo

Se puede ver que


1
0 1 0 0 1 1
= 2 1 + 2x + 3x2 ,

0 0 2 0 1
0 0 0 3 3
1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 209
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

y equivalentemente

1
0 0 0 3 1 3
= 2 3x2 + 2x + 1 ,

0 0 2 0 1
0 1 0 0 1
1

Es el mismo polinomio! Recuerde que las componentes del vector multiplican a los vectores bases en
el mismo orden.

3. Construyamos la representaci
 on para el mismo operador D del ejemplo  anterior, pero ahora en las
siguientes bases: |pi i = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 y |
pi i = 1, x, x2 de P3 y P2 , respec-

ar
tivamente. Entonces, nuevamente vemos que D |pj i implica
d(1)

dx = 0 = 0 1 + 0 x + 0 x2

in



d(1+x)

= 1 = 1 1 + 0 x + 0 x2

0 1 1 1

dx

2
h p | D |pj i = 0 0 2 2 .
d (1+x+x ) 0 0 0 3
= 1 1 + 2 x + 0 x2

lim




dx = 1 + 2x



d(1+x+x2 +x3 )


dx = 1 + 2x + 3x2 = 1 1 + 2 x + 3 x2

Representaci
on diagonal

para V y W, si adicionalmente se da el caso que re


Dado un operador lineal A L (V, W), donde dim (V) = dim (W) = n, y sea {|ei i} una base ortonormal

A |ei i = |ei i ,
rP
la representaci
on matricial ser
a diagonal

e A |ei i = Aji = ej |ei i = ij .



j

Esta afirmaci alida para dim (V) 6= dim (W) pero por simplicidad seguimos trabajando
on tambien es v
o

con matrices cuadradas.


ad

Representaci
on de operadores hermticos
La representaci
on matricial de un operador hermtico sera
 
rr

i
A = ei A |ej i = ej A |ei i = Aji



j
,

vale decir: el hermtico conjugado de una matriz, es su traspuesta conjugada. Si la matriz es hermtica, i.e.
Bo

i
A = A A j
= Aij .

Por lo tanto, las matrices hermticas son simetricas respecto a la diagonal y los elementos de la diagonal
son n
umeros reales. Un operador hermtico estara representado por una matriz hermtica.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 210
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

Aqu vale la pena probar algunas de las propiedades que arriba expresamos para operadores hermticos
conjugados, vale decir

A = A; (A) = A ; (A + B) = A + B ; (AB) = B A .

Es claro que
   i    
A e A |ej i = A j = Aji

i
= Aij ,
y

(A) ei A |ej i = ej A |ei i = ej A |ei i = ei A |ej i = A ,




pero m
as interesante es

ar

(AB) ei (AB) |ej i = Aik Bjk = (Ajk ) (Bik ) = (Akj ) (Bki ) = (Bki ) (Akj ) B A .

4.2.2. Cambio de bases para vectores

in
Dada una representaci on (una base) particular, un bra, un ket o un operador quedara representado
por una matriz. Si cambiamos la representacion, ese mismo bra, ket u operador tendra otra matriz como
representaci
on. Mostraremos c omo est an relacionadas esas matrices.

lim
Dadas dos base discretas ortonormales {|ei i} y {|ei i}, entonces un vector cualquiera

|i = ek hek | |i = ek i |ek i


e i hem |ek i
m
k
| {z }

h
e |i =


| {z }
ck Skm

k m

k
e |i = h
e | i e |em i

con lo cual, una vez m


| {z }
cm
re
|i = (|em i hem |) |i = hem | i |em i








| {z }
k
Sm

as, tendremos que la expresion de transformacion de componentes de un vector


rP
cm = Skm ck ck = Sm
k m
c ,

y Skm (o Smk
) ser
a la matriz de transformacion, cambio de base o cambio de representacion. Ahora bien, por
la definici
on de producto interno
k
o


hem |ek i = ek |em i Skm = Sm (Skm ) ,



por lo tanto, la matriz de transformaci


on entre bases es hermtica y la relacion anterior queda escrita como
ad

k m k m
cm = Skm ck hem | i = Skm ek i ck = Sm c ek |i = Sm



he | i .

Igualmente, la regla de transformaci on de las representaciones matriciales de operadores lineales queda


rr

expresada como

i
e A |ej i = ei |ek i ek A (|em i hem |) |ej i = ei |ek i ek A |em i hem |ej i ,





Bo

| {z } | {z }
Ski (Sjm )

por lo tanto
Aij = Ski Akm (Sjm ) ,
donde Aij es la representaci
on del operador A respecto a la base {|ej i} y Akm su representacion en la base
{|em i}.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 211
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

4.2.3. Traza de operadores


La traza, Tr (A), de un operador A es la suma de los elementos diagonales de su representacion matricial
A. Esto es, dado un operador A y una base ortogonal {|ei i} para Vn , entonces:

Tr (A) = ek A |ek i = Akk .



Por ejemplo,
1 2 3
Aij = 4 5 6 Tr (A) = Aii = 15 .
7 8 9

ar
Invariancia de la Traza
La traza de una matriz no depende de la base que seleccionemos, es un invariante que caracteriza al opera-
dor independientemente de la base en la cual se represente. Entonces, dadas dos bases discretas ortonormales

in
{|ei i} y {|ei i},

Akk = ek A |ek i = ek |em i hem | A |ek i = hem | A|ek i ek em i = hem | A |em i = Am






m.

lim
| {z }
I


Donde una vez mas hemos utilizado las dos relaciones de cierre |em i hem | = |ek i ek = I. Es claro que el
n
umero que representa esta suma ser
a el mismo independientemente de su representacion matricial.

Propiedades de la Traza
Claramente la traza es lineal re
Tr (A+B) = Tr (A) + Tr (B) ,
rP
ya que
Tr (A + B) = ek A + B |ek i = ek A |ek i + ek B |ek i = Tr (A) + Tr (B) .



La traza de un producto conmuta, esto es

Tr (AB) = Tr (BA) ,
o

y es f
acilmente demostrable
ad

Tr (AB) = ek AB |ek i = ek A|em i hem |B |ek i = ek B|em i hem |A |ek i = Tr (BA) .






| {z } | {z }
I I



Recuerde que ek B |em i y ek A |ek i son n
umeros que pueden ser reordenados.
rr

Del mismo modo es f acil demostrar que la traza de un triple producto de matrices respeta la ciclicidad
del orden de la matrices en el producto
Bo

Tr (ABC) = Tr (BCA) = Tr (CAB) .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 212
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

Practicando con Maxima:

Dado el siguiente espacio vectorial V3 = {(x, y, z) : x + y + z = 0} en R3 , y la siguiente transformaci


on
lineal de V3 V3
F (x, y, z) = (x + y + z, x + y z, 2z) ,

(%i1) F(x,y,z):=[x+y+z,x+y-z,-x-y-z];

( %o1) F (x, y, z) := [x + y + z, x + y z, x y z]

ar
La representacion matricial de esta transformacion la podemos obtener evaluando la funcion en la base
can
onica, de la siguiente manera:
(%i2) F_matriz:transpose(matrix(F(1,0,0),F(0,1,0),F(0,0,1)));

in

1 1 1
( %o2) 1 1 1
1 1 1

lim
Para obtener el n
ucleo de la transformacion

(F ) = |vi V3

F |vi = |0i ,

podemos proceder como se muestra a continuacion:


(%i3) M:F_matriz.[x,y,z];

z+y+x
( %o3) z + y + x
re
rP
z y x
(%i4) ecu1:M[1,1]=0; ecu2:M[2,1]=0;ecu3:M[3,1]=0;
( %o4) z + y + x = 0
( %o5) z + y + x = 0
( %o6) z y x = 0
o

(%i7) linsolve([ecu1,ecu2,ecu3],[x,y,z]);
ad

solve: dependent equations eliminated: (1)


( %o7) [x = %r1 , y = %r1 , z = 0]
rr

on al sistema es: x = C, y = C y z = 0. Una posible base para el espacio (F ) puede


Es decir, la soluci
ser: (1 1 0)T .
Notemos que si evaluamos nuevamente la transformacion F para la base canonica
Bo

(%i7) Img:matrix(F(1,0,0),F(0,1,0),F(0,0,1));

1 1 1
( %o7) 1 1 1
1 1 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 213
MATRICIAL DE OPERADORES
4.2. REPRESENTACION

Y si reducimos la matriz anterior, obtendremos


(%i7) echelon(Img);

1 1 1
( %o7) 0 1 0
0 0 0
Es decir, una base para el espacio imagen = (F ) es el conjunto: {(1 1 1)T y (0 1 0)T }.
Podemos tambien calcular una base para V3 = {(x, y, z) : x + y + z = 0}
(%i7) linsolve(x+y+z=0,[x,y,z]);

ar
( %o7) [x = %r3 %r2 , y = %r3 , z = %r2 ]

on del tipo: x = C3 C2 , y = C3 y z = C2 . Una base vendra dada por digamos:


Es una soluci
{(1 1 0)T y (1 0 1)T }.

in
4.2.4. Ejercicios

lim
PN
1. Considere el espacio P(t) de polinomios de grado N en t, vale decir |f it n=0 a0 tn , considere
d
ademas un operador T = exD exp(xD), con D = dt
a) Muestre que T |pit = |pit+x , esto es que el operador T puede ser considerado un operador traslaci
on
espacial para los polinomios P(t) de grado N .

re
b) Considere que el espacio de polinomios esta definido en el intervalo [1, 1], que definimos un
R1
producto interno de la forma hf | gi = 1 f g dt y un espacio de polinomios de grado N = 2.
Cu on matricial de T en la base de polinomios de Legendre {P0 , P1 , P2 }?
al es la representaci
rP
2. Heredando el formalismo de Mec anica Clasica, uno construye en Mecanica Cuantica el Operador Ha-
miltoniano, hermtico, para un sistema unidimensional como

P2
H= + V(X) ,
2m
o

donde H, P y X son operadores, y V(X) un operador que es una funcion de otro operador. Adicional-
mente, uno puede construir el siguiente operador: [X, P] = i~I.
ad

a) Determine los siguientes conmutadores [H, P], [H, X] y [H, XP]


b) Suponga que H |n i = En |n i y entonces calcule la representacion matricial del siguiente operador
h m | [A, H] |n i, para un operador arbitrario A.
rr

3. Considere la representaci
on matricial de un operador en la base canonica de la forma
 
Bo

1 a
A=
0 1

Existir un operador B, no singular, tal que D = B1 AB, con D un operador diagonal? Si ese fuera
a alg
el caso, Cu al sera la representaci
on matricial de ese operador B, en la base canonica? Justifique su
respuesta.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 214
DE OPERADORES Y ALGEBRA MATRICIAL
4.3. DIFERENCIACION

4. Considere el siguiente operador vectorial = x i + y j + z k donde las matrices x , y , z se


conocen como operadores de Pauli y su representacion matricial en la base canonica es:
       
0 1 0 i 1 0 1 0
x = ; y = ; z = ; I= .
1 0 i 0 0 1 0 1

El vector direcci
on puede escribirse como

n = sen() cos()i + sen()sen()j + cos()k = nx i + ny j + nz k ,

con lo cual: n = nx x + ny y + nz z .
A partir de todo lo anterior calcule la representacion matricial del siguiente operador en la base can
onica

ar
 
i
exp n .
2

in
5. Dadas las siguientes matrices

0 2/2 0 0 i 2/2 0 1 0 0

lim
Lx = 2/2 0 2/2 , Ly = i 2/2 0 i 2/2 , Lz = 0 0 0 .
0 2/2 0 0 i 2/2 0 0 0 1

Demuestre las siguientes reglas de conmutacion


a) Lx Ly Ly Lx = iLz .
b) Ly Lz Lz Ly = iLx .
c) Lz Lx Lx Lz = iLy .
d ) L2x + L2y + L2z = 2.
re
rP
4.3. Diferenciaci
on de operadores y algebra matricial
Dado un operador A (t) el cual supondremos dependiente de una variable arbitraria t podremos definir
la derivada como
o

dA(t) A (t + t) A(t)
= lm
dt t0 t
ad


k k
por lo tanto si u A |ui i = A entonces
i

dA11 dA12 dA1n



dt dt dt
k dA21 dA22 dA2n
dAki


k dA(t) dA(t) d
k
rr

dt dt dt

u |ui i = = u A(t) |ui i = = .. ..
,
dt dt i dt dt
. .


dAn
1 dAn
2 dAnn
dt dt dt
Bo

con lo cual la regla es simple, la representacion matricial de la derivada de un operador sera la derivada de
cada uno de sus elementos. Por ejemplo

x2

x 2 1 2x 0
d
1 ex 5x = 0 ex 5 .
dx 3 2
3x 3 cos(x) 9x 0 sen(x)

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 215
DE OPERADORES Y ALGEBRA MATRICIAL
4.3. DIFERENCIACION

4.3.1. Reglas de diferenciaci


on de operadores lineales
Las reglas usuales de la diferenciaci
on se cumpliran con la diferenciacion de operadores lineales. Esto se
demuestra con la representacion matricial

d (A(t) + B (t)) d (A (t)) d (B (t))


= + ,
dt dt dt
es decir:
d (A(t) + B(t)) d
k d
k
uk u A(t) |ui i + uk B(t) |ui i



|ui i = u (A(t) + B(t)) |ui i =
dt dt dt
d
k d
k

ar
= u A (t) |ui i + u B(t) |ui i
dt dt

dA(t)
dB(t) d (A(t)) d (B(t))
= uk |ui i + uk |ui i = + .
dt dt dt dt

in
Del mismo modo se cumplir
a que

d (A(t)B (t)) dA(t) dB(t)


= B(t) + A(t) ,

lim
dt dt dt
con la precauci
on que no se puede modificar el orden de aparicion de los operadores. Es facil ver que

k d (A(t)B(t)) d
k d
k
u |ui i = u A (t) B(t) |ui i = u A (t) I B(t) |ui i
dt dt dt
= u A(t) |um i hum | B(t) |ui i

k

=


d uk A(t) |um i m
dt
re 

hu | B(t) |ui i + uk A(t) |um i



d hum | B(t) |ui i
dt
rP

k dA(t) dB(t)
|um i hum | B(t) |ui i + uk A(t) |um i hum |


= u |ui i .
dt dt
Otras propiedades de la derivaci
on de operadores se demuestran a partir de sus expansiones en series.
At
Por ejemplo, si queremos conocer la expresion para dedt , con A 6= A(t), recordemos que
o

" # " #
X (At)n (At)
2
(At)
n
At
e |vi = |vi = I + At + + + |vi ,
n! 2! n!
ad

n=0

tendremos que
" # " # " # " #
n X d  (At)n  X ntn1 An X tn1 An1
deAt d X (At)
|vi = |vi = |vi = |vi = A |vi .
rr

dt dt n=0 n! n=0
dt n! n=0
n! n=0
(n 1)!
| {z }
eAt
Bo

Notese que la suma es hasta infinito, por lo tanto al cambiar de ndice p = n 1, p sigue variando hasta
infinito y la serie es la misma que la anterior. Entonces

deAt
|vi = eAt A |vi AeAt |vi .
dt

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 216
DE OPERADORES Y ALGEBRA MATRICIAL
4.3. DIFERENCIACION

Si un s
olo operador est a siendo derivado el orden de presentacion de los operadores es indiferente. Ahora
bien, cuando se presenta la siguiente situacion

d eAt eBt deAt Bt deBt
|vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi = eAt AeBt |vi + eAt eBt B |vi ,
dt dt dt
 
con A 6= A(t) y B 6= B(t) y siempre eBt , B = 0.
Con lo cual, s olo para el caso en el que [A, B] = 0 podremos factorizar eAt eBt y

d eAt eBt
|vi = (A + B) eAt eBt |vi .
dt

ar
Si [A, B] 6= 0 el orden de aparici
on de los operadores eshMUY importante.
i
dA(t)
Para el caso en el cual A = A(t) no necesariamente A(t), e dt = 0. Veamos:
" # "  #
n X 1 d (A(t))n 

in
deA(t) d X (A(t))
|vi = |vi = |vi
dt dt n=0 n! n=0
n! dt
"   #
X 1 d (A(t)) d (A(t))
n1 n2 n1 d (A(t))

lim
= A(t) + A(t) A(t) A(t) |vi .
n=0
n! dt dt dt

Adicionalmente
dF (B)
si [A, [A, B]] = [B, [A, B]] = 0 [A, F (B)] = [A, B]
dB
Esta relaci
on es f
acilmente demostrable para el caso en el cual [A, B] = I, el operador identidad, en ese caso
tenamos que ABn Bn A = nBn1
re
rP
ABn Bn A = ABB B}BB
| {z B}A = (I + BA) BB
| {z B} BB
| {z B}A
| {z
n n n1 n
n1
=IB + B (I + BA)BB B} BB
| {z B}A
| {z
n2 n

= 2Bn1 + B2 (I + BA)BB B} BB B}A = = nBn1 .


o

| {z | {z
n3 n
ad

Obviamente, para este caso, se cumple que

[A, B] = I [A, [A, B]] = [B, [A, B]] = 0 .

Para demostrar esta relaci


on desarrollemos en Serie de Taylor la funcion F (B). Esto es
rr


" #
X Bn X [A, Bn ] X nBn1 X Bn1
[A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn
n=0
n! n=0
n! n=0
n! n=0
(n 1)!
Bo

dF (B)
= [A, B] .
dB
Para el caso m
as general se procede del mismo modo.

? dF (B)
Si [A, C] = [B, C] = 0 , con C = [A, B] [A, F (B)] = [A, B] .
dB

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 217
DE OPERADORES Y ALGEBRA MATRICIAL
4.3. DIFERENCIACION

Probaremos primero que

si [A, C] = [B, C] = 0 , con C = [A, B] [A, Bn ] = ABn Bn A = n [A, B] Bn1 .

Tendremos que

ABn Bn A = ABB B}BB


| {z B}A = (C + BA) BB
| {z B} BB
| {z B}A
| {z
n n n1 n
n1
= CB + B (C + BA)BB B} BB
| {z B}A
| {z
n2 n
n1 n1
= 2CB 2
+ B (C + BA)BB B} BB B}A = = nCBn1 = n[A, B] B ,

ar
| {z | {z
n3 n

con lo cual es inmediato demostrar que

in

" #
X Bn X [A, Bn ] X nBn1 X Bn1
[A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn
n=0
n! n=0
n! n=0
n! n=0
(n 1)!
dF (B)

lim
= [A, B] .
dB

4.3.2. La f
ormula de Glauber
Ahora estamos en capacidad de demostrar limpiamente la formula de Glauber. Esta es

re 1
eA eB = eA+B e 2 [A,B] .

Para demostrarla, procedemos a considerar un operador F (t) = eAt eBt , por lo tanto
rP
dF(t) deAt eBt
|vi = AeAt eBt |vi + eAt BeBt |vi = A + eAt BeAt eAt eBt |vi

|vi =
dt dt
= A + eAt BeAt F(t) |vi .


Ahora bien, dado que


o

dF (B)
si [A, [A, B]] = [B, [A, B]] = 0 [A, F (B)] = [A, B] ,
dB
ad

entonces  At 
e , B = t [A, B] eAt eAt B = BeAt + t [A, B] eAt ,
por lo cual
rr

dF(t)
|vi = A + eAt BeAt F(t) |vi = (A + B + t [A, B]) F (t) |vi ,

dt
por tanteo uno puede darse cuenta que
Bo

2
n o
(A+B)t+ t2 [A,B]
F(t) = e ,

cumple con la ecuaci


on anterior, por lo tanto absorbiendo t en los operadores correspondientes llegamos a la
f
ormula de Glauber
1
eA eB = eA+B e 2 [A,B] .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 218
DE OPERADORES Y ALGEBRA MATRICIAL
4.3. DIFERENCIACION

4.3.3. Algebra de matrices


Por comodidad supongamos que dim (V) = dim (W) = n y consideremos la base ortogonal {|en i}. De
este modo, es claro que se obtienen nuevamente las conocidas relaciones para matrices cuadradas

i
e A + B |ej i = ei A |ej i + ei B |ej i = Aij + Bji


con lo cual tenemos la suma de matrices. Esto es


1
A1 A12 A1n
1
B1 B21 Bn1 A11 + B11 A12 + B21 A1n + Bn1


2 2 2 2 2
A1 A2 An B1 B2 Bn2 A21 + B12 A22 + B22 A2n + Bn2
+ = ,

.. .. . .. .. .. ..
..

. . . . . .

ar
An1 An2 Ann B1n B2n Ann An1 + B1n n
An + B nn

i
en forma compacta puede demostrarse que Aij + Bji = (A + B)j , con lo cual es directo la demostracion de la

in
igualdad de matrices:
1
A1 + B11 A12 + B21 A1n + Bn1 A11 A12 A1n
1
B21 Bn1

B1
A21 + B12 A22 + B22 A2n + Bn2 A21 A22 A2n B12 B22 Bn2

lim
=0 = .. ,

.. .. .. .. .. ..
. . . . . . .
An1 + B1n Ann + Bnn An1 An2 Ann
B1n B2n n
An

en donde Aij = Bji .


De igual modo para la representaci on de composicion de operadores

i

para multiplicaci
on de matrices, esto es


re
e AB |ej i = ei A I B |ej i = ei A |ek i ek B |ej i = ei A |ek i ek B |ej i = Aik Bjk





rP
1 k
A1k B2k A1k Bnk
1
A1 A12 A1n
1
B21 Bn1

B1 Ak B 1
A21 A22 A 2
n
B12 B22 Bn2 A2k B1k A2k B2k A2k Bnk
.. = ,

.. .. .. .. .. ..
. . . . . . .
An1 An2 Ann B1n B2n Ann Ank B1k Ank Bnk
o

como ya sabamos AB 6= BA Aik Bjk 6=Bki Akj .


ad

De la misma manera, la multiplicaci


on de un n umero por una matriz es la multiplicacion de todos sus
elementos por ese n
umero
i
e A |ej i = ei A |ej i = Aij .


rr

4.3.4. Ejercicios
1. Si  
cos(t) sen(t)
Mij (t) =
Bo

sen(t) cos(t)
Demuestre que
d2 M(t)
= 2 M(t) .
dt2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 219

4.4. UN PARENTESIS DETERMINANTE

2. Dada a matriz
1 1 0
Aji = 1 1 1 .
0 1 1
ue: A2 , A3 , AAx .
Eval
3. Dada la matriz
0 0 i
Aji = i 0 0
0 1 0
Demuestre que An = AAA... = I, con n 6= 0.

ar
4.4. Un par
entesis determinante

in
El determinante se define con la siguiente aplicacion: det |A| : Mnn R, es decir, asocia un n
umero
real con cada matriz del espacio vectorial Mnn de matrices n n
As, dada una matriz

lim
1
A1 A12 A1n
1
A1 A12 A1n


A21 A22 2
2
A1 A22 A2n

An
ijk 1 2 3
A= . det |A| = A A A =

.. i j k . ..
.. ..

.
.

n n n n n
A1 A2 An A1 A2 Ann

ijk = ijk =
re
Hemos generalizado los ndices de Levi Civita de tal forma que

0, si cualesquiera dos ndices son iguales
1, si los ndices i, j, k constituyen una permutacion cclica de 1, 2, 3 n
rP
1, si los ndices i, j, k constituyen una permutacion anticclica de 1, 2, 3 n

on es clara para el caso de matrices 3 3, veamos.


Esta situaci
1 1
A1 A12 A13 A12 A13

A1
ijk 1 2 3
2 2 2

A= A1 A2 A3 det |A| = Ai Aj Ak = A21 A22 A23 ,

A31 A32 A33 A31 A32 A33
o

con lo cual
ad

det |A| = 123 A11 A22 A33 + 312 A13 A21 A32 + 231 A12 A23 A31 + 132 A11 A23 A32 + 321 A13 A22 A31 + 213 A12 A21 A33
= A11 A22 A33 + A13 A21 A32 + A12 A23 A31 A11 A23 A32 A13 A22 A31 A12 A21 A33 .
rr

Propiedades de los determinantes


1. det |A| = det |AT |, donde AT es la traspuesta de A. Esta propiedad proviene de la definicion del ndice
de Levi Civita
Bo

det |A| = ijk A1i A2j A3k = ijk Ai1 Aj2 Ak3 = det |AT | ,
que se traduce en que si se intercambian filas por columnas el determinante no se altera
1
A1 A12 A13 A11 A21 A31
2
A1 A22 A23 = A12 A22 A32 .
3
A1 A32 A33 A13 A23 A33

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 220

4.4. UN PARENTESIS DETERMINANTE

2. Si dos filas o dos columnas son identicas el determinante se anula


iik A1i A2i A3k = iik Ai1 Ai2 Ak3 = 0
1
A1 A12 A13
1
A1 A12 A13 = 0
3
A1 A32 A33

3. Si multiplicamos una fila o una columna por un n umero, el determinante queda multiplicado por el
n
umero
ijk A1i A2j A3k = ijk A1i A2j A3k = det[A]


ijk Ai1 Aj2 Ak3 = ijk Ai1 Aj2 Ak3 = det[A] ,




ar
de aqu claramente se desprende que si una fila o una columna es cero ( = 0) el determinante se anula.
M un, si dos filas o dos columnas son proporcionales A1i = A2j el determinante se anula, por cuanto
as a
se cumple la propiedad anterior

in
1 1
A1 A12 A13 A11 A12 A13 A1 A12 A13
2
A1 A22 A23 = A21 A22 A23 = A21 A22 A23 .
3
A1 A32 A33 A31 A32 A33 A31 A32 A33

lim
Obvio que 1 1
A1
2 0 A13 A1
2 A12 A13

A1
3 0 A23 = A1
A22 A23 = 0,

A1 0 A33 0 0 0
al igual que
1
A1 A11
2
A1 A21
A13
A23

A11

= A11
A12
A12
A13
A13
re



1
A1

= A21
A11
A21
A13
A23



1
A1

= A11
A12
A12
A13
A13



= 0.
rP
3 3 3
A1 A31 A33 A31 A32 A33 A1 A31 A33 A1 A32 A33

4. Si se intercambian dos filas o dos columnas cambia de signo el determinante.


1
A12 A1n

A1
2
A1 A22 A2n
o

det |A| = ijk 1 2 3


Ai Aj Ak = .

.. ,
ijk A1j A2i A3k = det[A]
.. .

An An An
ad

1 2 n

donde en la matriz A se han intercambiando un par de columnas. Claramente las propiedades del
ndice de Levi Civita, obliga al cambio de signo
= det |A| .
det |A|
rr

N
otese que una sntesis de las propiedades anteriores nos lleva a reescribir el determinante de una
matriz de manera que
Bo

det |A| = det |A| = ijk Ai Aj Ak det |A| = det |A| = ijk A
i Aj Ak

claramente, si 123 reobtenemos la definicion anterior. Si se intercambian dos filas o dos


columnas, el determinante cambia de signo debido al intercambio de dos ndices griegos. Si dos filas
o dos columnas son iguales el determinante se anula debido a la propiedad de smbolo de Levi Civita
con ndices griegos.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 221

4.4. UN PARENTESIS DETERMINANTE

5. El determinante de un producto es el producto de los determinantes


det |AB| = det |A| det |B| .
Antes de proceder a la demostracion de este importante propiedad jugaremos un poco mas con las
nalar que si A es una matriz m n y B es una matriz n p,
propiedades de las matrices. Queremos se
entonces tendremos que

(AB) = A B ,
esto es, que la -esima fila de AB es igual a la multiplicacion de la -esima fila de A, por toda la
matriz B.
Veamos
i
Cji = (AB)j = Ail Bjl

ar
por lo tanto la -esima fila
B11 B21 Bn1


B12 B22 Bn2

in

Cj = A B l
C
= (A
, A
, A
, A
, ) .

l j j 1 2 3 n .. ..
. .
B1n B2n Bnn

lim
   
det |A| det |B| = det |A| ijk B1i B2j B3k = ijk Ai Aj Ak abc B1a B2b B3c ,


que siempre puede ser rearreglado a


  
i j k i j k
ijk A A
i j kA ijk B B B
1 2 3 = A
i B1 Aj B2 Ak B3 = det [AB] .

Veamos este desarrollo en el caso de matrices 3 3:


re
det |A| det |B| = 123 A11 A22 A33 + 312 A13 A21 A32 + 231 A12 A23 A31 + 132 A11 A23 A32 + 321 A13 A22 A31 + 213 A12 A21 A33
123 B11 B22 B33 + 312 B31 B12 B23 + 231 B21 B32 B13 + 132 B11 B32 B23 + 321 B31 B22 B13 + 213 B21 B12 B33


rP
con lo cual
= A11 A22 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 B11 B32 B23 B31 B22 B13 B21 B12 B33


+ A13 A21 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33


+ A12 A23 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33

o

A11 A23 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33

ad

A13 A22 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33


A12 A21 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33


como son n
umeros se pueden arreglar de la siguiente forma
rr

= A11 A22 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 B11 B23 B32 B13 B22 B31 B12 B21 B33


+ A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 B11 B23 B32 B13 B22 B31 B12 B21 B33

Bo

+ A12 A23 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 B11 B23 B32 B13 B22 B31 B12 B21 B33


A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 B11 B23 B32 B13 B22 B31 B12 B21 B33


A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 B11 B23 B32 B13 B22 B31 B12 B21 B33


A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 B11 B23 B32 B13 B22 B31 B12 B21 B33


= ijk Ai B1 Aj B2 Ak B3 .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 222

4.4. UN PARENTESIS DETERMINANTE

4.4.1. F
ormula de Laplace
La f
ormula de Laplace permite expresar el determinate de una matriz en terminos de sus matrices menores
o cofactores, matrices que definiremos en la siguiente seccion.
n
X
det |A] = Aij (Ac )ij , para cualquier i .
j=1

Por ejemplo, para la matriz


3 2 2
A= 1 2 3
4 1 2

ar
el desarrollo de Laplace para la primera fila (i = 1) es:

det [A] = A11 (Ac )11 + A12 (Ac )12 + A13 (Ac )13

in

2 3 1 3 1 2
= 3
(2) + 2
1 2 4 2 4 1
= 3(7) + 2(14) + 2(7) = 35 .

lim
4.4.2. Ejercicios
1. Calcule los siguientes determinantes

2 5 0 1 3

2

0

2
0
1
0

2
0 ,
0







1
1
2
2
1
2 x2
3
3
2
2
1
3
3
5
1 9 x2




,









re
1
0
3
2
0
1
3
1
2
2
4
2
3
1
2
0




,









1
3
2
0
1
6
3
0
4
7
5
1
2
5
2




.


rP

0 3 1 2 3

2. Utilizando las propiedades de los determinantes resuelva para x



x+2 x+4 x3

x+3 x x + 5 = 0 .
o


x2 x1 x+1
ad

3. Utilizando la propiedad lineal de los determinantes calcule



a+b n+p
= .
c+d q+r
rr

4. Encuentre el determinante de la matriz 4 4 definida por la funcion


1
Bo

Aij = .
i+jx

5. Muestre que si las filas de un determinante de orden n son linealmente independientes, entonces sus
columnas son tambien linealmente independientes.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 223

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

4.5. Un zool
ogico de matrices cuadradas
A continuacion presentaremos un conjunto de matrices fundamentales y de operaciones sobre matrices
que ser
an de gran utilidad para el resto de desarrollo del tema. Pero es bueno tener en mente que las matrices
pueden tener todas sus componentes reales, diremos que son matrices pertenecientes al espacio vectorial de
matrices reales Rnm o tener como componentes n umeros complejos, en este caso diremos que pertenecen
al espacio vectorial de matrices complejas Cnm .

4.5.1. Matriz unitaria y la matriz nula


La matriz unitaria es aquella que s
olo tiene elementos en la diagonal iguales a la unidad

ar
I Iji = ji .

Mientras que la matriz nula es aquella con todos los elementos iguales a cero

in
0 0ij = 0 .

4.5.2. Matriz diagonal a bloques

lim
Una matriz diagonal es aquella que contiene elementos unicamente en la diagonal, las demas componentes
son cero. Como veremos m as adelante existen algunos metodos para reducir una matriz a su forma diagonal.
Una propiedad importante de estas matrices es que conmutan, es decir,

AB = BA ,

si A y B son diagonales.
re
Pero tambien podemos tener matrices diagonales a bloques, vale decir
rP
1
D1 D21 0

0
D12 D22 0 0
Dji =
0 0 D33 D43
0 0 D34 D44

Tambien tenemos las triangulares superior e inferior:


o

1
1 D 1 D1
1
D 1 D 2 3 4 D1 0 0 0
2 2 2
ad

2
ji = 0 D2 D3 D4

ji = D1
D22 0 0
D 3 3 y D 3 3

0 0 D3 D 4
D
1 D23 D3 0
0 0 0 D 4 4
D 4
D 4
D 4
D
4 1 2 3 4
rr

4.5.3. Matriz transpuesta


La matriz transpuesta es aquella que se obtiene intercambiando filas por columnas:
Bo

A = Aij AT = Aji .

Si A = AT , (Aij = Aji ), se dice que A es simetrica. Y si A = AT , (Aij = Aji ), es llamada antisimetrica. Por
lo tanto, una matriz cuadrada se puede representar por la suma de una matriz simetrica y una antisimetrica
1  1
A + AT + A AT .

A=
2 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 224

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

4.5.4. Matriz de cofactores


A una matriz A le podemos asociar una de cofactores Ac de la manera siguiente:
1 1 1
(Ac )1 (Ac )2 (Ac )3
1
a1 a12 a13

i
Aj = a21 a22 a23 (A )j = (Ac )21
i c 2 2
(Ac )2 (Ac )3 .
a31 a32 a33 3
(Ac )1
3 3
(Ac )2 (Ac )3
i
Donde los (Ac )j forman la matriz de cofactores, estos cofactores son
2 2
2 2
2
1 1+1 a2 a3 c 1 1+2 a1 a3 c 1 1+3 a1 a22
(Ac )1 = (1) a32 a33 (A ) = (1) a31 a33 (A ) = (1) a31
2 3 a32

ar
1 1 1
2 2+1 a2 a13 2 2+2 a1 a13 2 2+3 a1 a12
(Ac )1 = (1) 3 (Ac )2 = (1) 3 (Ac )3 = (1) 3
a2 a33 a1 a33 a1 a32

in
1 1 1
3 3+1 a2 a13 3 3+2 a1 a13 3 3+3 a1 a12
(Ac )1 = (1) 2 (Ac )2 = (1) 2 (Ac )3 = (1) 2 .
a2 a23 a1 a23 a1 a22

lim
4.5.5. Matriz adjunta
Llamaremos matriz adjunta, adj [A], a la traspuesta de la matriz de cofactores de una determinada matriz:
   T
T i j
adj [A] = (Ac ) adj Aij = (Ac )j = (Ac )i .

Por ejemplo
1

2 3

re
3 6 3

rP
A= 4 5 6 adj [A] = 6 12 6 .
7 8 9 3 6 3
Una matriz ser
a autoadjunta si adj [A] = A.

4.5.6. Matriz singular


o

A es singular si det[A] = 0. Adem


as, si el determinate de la matriz A es diferente de cero, entonces
ad

1 1
det A1 =

= det |A| .
det |A|

Rango de una matriz: Si det[A] 6= 0 se dice que la matriz cuadrada A tiene un valor de rango r. El
rr

rango de una matriz es el n


umero m
aximo de vectores filas o columnas linealmente independientes, es decir:
0 r n.
Bo

4.5.7. Matriz inversa


Hemos visto que dada una transformacion lineal biyectiva, podemos definir una inversa para esa trans-
formaci
on lineal. Esa transformaci
on lineal tendra como representacion un matriz. Por lo tanto dado un
operador lineal A diremos que otro operador lineal B sera su inverso (por la derecha) si
AB = I ei AB |ej i = ji Aik Bjk = ji .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 225

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS


Ahora bien, como conocemos la matriz Aik y la suponemos no singular ( det Aik 6= 0) al tomar un j fijo
tendremos un sistema de n ecuaciones lineales inhomogeneo con n incognitas: Bj1 , Bj2 , Bj3 , Bjn . Al resolver
el sistema tendremos la soluci
on.
Un procedimiento para encontrar la inversa es el metodo de eliminacion de Gauss Jordan. Veamos como
funciona para una matriz Aij 3 3:
1
A1 A12 A13 1 0 0 1 0 0 B11 B21 B31

A21 A22 A23 0 1 0 Gauss Jordan
0 1 0 B12 B22 B32 .
3 3

3

A1 A2 A3 0 0 1 0 0 1 B13 B23 B33

Ejemplo Queremos hallar la matriz inversa de

ar

2 3 4
2 1 1 .
1 1 2

in
Entonces:
2 3 4 1
0 0 2 3 4 1 0 0
2 1 1 0 1 0 0 2 3 1 1 0

lim

1 1 2 0 0 1 1 1 2 0 0 1

2 3 4 1
0 0 1 0 0 1 2 1
0 2 3 1
1 0 0 1 0 5 8 6
0 5 8 1 0 2 0 0 1 3 5 4
Tambien se puede obtener la matriz inversa de A de la siguiente manera:

A1 = re
adj [A]
det [A]
.
rP
Por ejemplo, para la matriz

3 2 2 7 6 2
1
A= 1 2 3 A1 = 14 2 11 .
35
4 1 2 7 11 8
o

Algunas propiedades importantes:


1 1 T 1  1
A1 AT = A1 , A = A1 = B1 A1 .
ad

= A, , (AB)

4.5.8. Matriz ortogonal


Anteriormente mencionamos que en el espacio real R3 podemos tener una transformacion de coordenadas
rr

cartesianas: (x, y, z) (
x, y, z) que consiste en rotar, un angulo , uno de los sistemas respecto al otro. Si la
rotaci
on se hace, digamos alrededor del eje z, la relacion entre las coordenadas es la siguiente:
Bo

1
x = x cos() + y sen() x = x1 cos() + x2 sen()
y = x sen() + y cos() 2 = x1 sen() + x2 cos() x
x i =
ji xj .
3 3
z = z x
= x

Si la longitud desde el origen a alg


un punto P del espacio es la misma para ambos sistemas de coordenadas

xi xi = x
i x ij xj ) = xk xj
ki xk )(
i = ( ij
ki .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 226

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

entonces se tiene que cumplir que:


ij
ki = kj .
Esta resultado es una consecuencia de haber impuesto la condicion para que las longitudes sean las
mismas en ambos sistemas de coordenadas y se conoce como la condici on de ortogonalidad.
En el lenguaje de la matrices reales la condicion de ortogonalidad se puede enunciar de diferentes formas,
todas ellas equivalentes:
X j
AT A = AAT = I , AT = A1 , Ai Aik = kj .
i

y diremos que la matrices que las satisfacen son matrices ortogonales.

ar
4.5.9. Matrices complejas
Las matrices pueden tener todos sus componentes reales, Aij R, y se dice que pertenecen al espacio

in
vectorial de matrices reales Rnn . Las matrices con todas sus componentes reales no permite estudiar
problemas que pueden aparecer en algunas ramas de la Fsica, como en la Mecanica Cuantica. Por lo tanto, de
necesita generalizar nuestro estudio a espacios vectoriales a el de espacios vectoriales de matrices complejas:

lim
Cnn , donde en las componentes de las matrices aparecen n umeros complejos. Cuando las matrices son
complejas surgen generalizaciones que podemos considerar, como mostramos a continuacion.

La matriz adjunta conjugada o matriz transpuesta conjugada


Estas matrices se construyen tomado el complejo conjugado de cada elemento y luego la transpuesta
de la matriz. Se acostumbra denotarlas con A

re
A = (A )T = (AT ) .
rP
La matriz hermtica
Son aquellas matrices que satisfacen la siguiente ecuacion:

A = A .

Notemos que si A es real, entonces A = AT , y por lo tanto las matrices hermticas reales son matrices
o

simetricas.
ad

La matriz normal
Se llama matriz normal a aquella que satisface

A A = AA .
rr

La matriz unitaria
La matriz A es unitaria si:
Bo

A = A1 .
Si A es real, entonces A1 = AT , de manera que las matrices unitarias reales son ortogonales. Es
decir, las matrices unitarias son el analogo a las matrices ortogonales reales y son de fundamental
importancia en la Mec anica Cuantica porque dejan la norma de los vectores invariantes.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 227

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

Existe una relaci


on importante entre matrices normales y matrices unitarias y es el hecho de que una
matriz A es normal, si y s
olo si, existe una matriz diagonal y una unitaria U tal que:
A = UU .
M
as adelante veremos que los valores en la diagonal de se denominan los autovalores de A y las
columnas de U son los autovectores de A.

Practicando con Maxima:

En este ejercicio vamos a introducir algunos comandos basicos que nos permitiran realizar operaciones
tpicas con matrices. Dada la siguiente matriz:

ar
(%i1) A:matrix([1,2,3],[4,8,5],[9,5,4]);

1 2 3

in
( %o1) 4 8 5
9 5 4
La transpuesta es:

lim
(%i2) transpose(A);

1 4 9
( %o2) 2 8 5
3 5 4

matriz de cofactores de A.
(%i3) adjoint(A);
re
El comando adjoint(A) calcula el adjunto de la matriz A. La matriz adjunta es la transpuesta de la
rP

7 7 14
( %o3) 29 23 7
52 13 0
Para la matriz inversa:
o

(%i4) invert(A);
ad

1 1 2

13 13 13
( %o4) 2991
23
91
1
13
4 1
7 7 0
(%i5) determinant(A);
rr

( %o5) 91

Si se quiere, se puede calcular la inversa con el determinante afuera:


Bo

(%i6) invert(A),detout;

7 7 14
29 23 7
52 13 0
( %o6)
91

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 228

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

Podemos comprobar que A1 A = I


(%i7) invert(A).A;

1 0 0
( %o7) 0 1 0
0 0 1
Para calcular la menor (i, j) de la matriz, es decir, eliminar la fila i y la columna j de una matriz se debe
escribir:
(%i8) minor(A,2,2);

ar
 
1 3
( %o8)
9 4

in
Para generar una matriz triangular superior a partir de una matriz dada se debe usar el siguiente comando:
triangularize(). El comando echelon() es equivalente pero normaliza a 1 el primer elemento no nulo de
cada fila utilizando el metodo de eliminacion de Gauss Jordan.

lim
(%i9) triangularize(A);

1 2 3
( %o9) 0 13 23
0 0 91
(%i10)echelon(A);

1 2 3
( %o10) 0 1 23
0 0 1
13


re
rP
Con el paquete nchrpl se puede calcular la traza de una matriz
(%i11)load(nchrpl)$

(%i12)mattrace(A);
o

( %o12) 13
ad

Consideremos ahora la matriz


(%i13)M:matrix ([1, %i, 0], [1, 2 ,-%i], [%i, 1, 2] );

1 i 0
rr

( %o13) 1 2 i
i 1 2
Para el exponente de matrices tenemos la opcion domxexpt (true o false). Cuando es true el exp(M ) se
Bo

interpreta como la matriz cuyo elemento i, j es igual a exp(M [i, j]). En el otro caso, exp(M ) se interpreta
como (x)M .
(%i14)(1-x)^M;

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 229

4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

i

1x (1 x) 1
1 2 1
( %o14) 1x
(1 x) (1x)i


i 2
(1 x) 1x (1 x)
(%i15)domxexpt:false$

(%i16)(1-x)^M;

1 i 0
1 i

2

( %o16) (1 x) i 1 2

ar
Y en cuanto al c
alculo del rango de una matriz
(%i17)rank(M);
( %o17) 3

in
(%i18)kill(all)$

lim
4.5.10. Ejercicios
1. Considere las matrices

0
A= i

i
i
0
i 0
i

i , re B=
1
8
1
2
3 2

0
6
3
1 .
2
rP
Diga si son: (a) reales, (b) diagonales, (c) simetricas, (d) antisimetricas, (e) singulares, (f) ortogonales,
(g) hemticas, (h) antihermticas, (i) unitarias o (j) normales.
2. Dada una matriz hermtica  
10 3i
H=
3i 0
o

construya la matriz unitaria U, tal que U HU = D donde D es una matriz real y diagonal.
ad

3. Utilizando el metodo de eliminaci


on de Gauss Jordan encuentre la inversa dela matriz

1 2 3
A= 4 8 5
rr

9 5 4

4. Encuentre la matriz inversa de


Bo


1/2 1/2 1/2 1/2
2 4 3 1 1 0 1/2 1/2 1/2 1/2
A= 1 2 2 , B= 1 1 1 , C= .
1/2 1/2 1/2 1/2
3 3 2 0 1 1
1/2 1/2 1/2 1/2

Calcule: BT (A)1 B y (2A + (B)1 BT )AT .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 230
4.6. AUTOVECTORES Y AUTOVALORES

5. Considere matrices ortogonales, reales 3 3 las cuales, adicionalmente cumplen con: det[M] = 1.

a) Cu
antos par
ametros reales son necesarios para caracterizar unvocamente a este tipo de matrices?
b) Este tipo de matrices forman grupo baja la multiplicacion de matrices?
c) Si ahora considera la matrices ortogonales reales con det[M] = 1 Este tipo de matrices formar
an
grupo bajo la multiplicaci
on? Justifique su respuesta.

6. Si A y B son dos matrices hermticas que no conmutan:

AB BA = iC ,

ar
entonces pruebe que C es hermtica.
7. Si
A = exp (iB) , R.

in
Demuestre que si B es hermtica entonces A es unitaria.
8. Pruebe que el producto directo de dos matrices unitarias resulta en una matriz unitaria.

lim
4.6. Autovectores y Autovalores
La ecuacion de Schrodinger independiente del tiempo de la Mecanica Cuantica es una ecuacion, que
escrita en la forma de operadores, tiene la siguiente forma:

re
H |E i = E|E i ,

donde H es un operador diferencial de segundo orden llamado el hamiltoniano y E la funcion de onda, en


rP
este caso representada por |E i, un estado propio de H que corresponde a un valor propio de la energa E.
Por tratarse de un espacio de Hilbert, es decir, un espacio vectorial con un producto interno bien definido,
resulta de interes buscar soluciones en lo que se denomina el estado ligado de la ecuacion de Schrodinger.
Esto significa buscar los |E i en el espacio de las funciones de cuadrado integrable introduciendo una
base unidimensional para representar E y una matriz para representar H, en otras palabras: buscar una
representaci
on matricial para la ecuacion de Schrodinger.
o

Los vectores propios, |E i, autovectores o eigenvectores de un operador lineal H son los vectores no nulos
que, cuando son transformados por el operador, dan lugar a un m ultiplo escalar de s mismos, con lo que
ad

no cambian su direcci on. Este escalar E recibe el nombre de valor propio, autovalor, valor caracterstico o
eigenvalor. De manera que una transformacion queda completamente determinada por sus vectores propios
y valores propios. Un espacio propio, autoespacio, eigenespacio o subespacio fundamental asociado al valor
propio E es el conjunto de vectores propios con un valor propio com un.
rr

4.6.1. Definiciones y teoremas preliminares


Bo

De manera general, llamaremos a |i un autovector del operador A si se cumple que

A |i = |i ,

en este caso (que, en general sera un numero complejo) se denomina el autovalor correspondiente al
autovector |i. La ecuaci
on A |i = |i es conocida en la literatura como la ecuacion de autovalores y se

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 231
4.6. AUTOVECTORES Y AUTOVALORES

cumple para algunos valores particulares de los autovalores . El conjunto de los autovalores se denomina el
espectro del operador A.
Supongamos que A : V V y que dim V = n, supongamos ademas que una base ortogonal para V es
{|ei i}. Por lo tanto la repercusion de esta ecuacion sobre la representacion matricial es la siguiente

i
e A |ej i ej |i = ei |i = ei |i Aij cj = ci ,


claramente, si {|ei i} genera una representacion diagonal de A, entonces

Aij ji Aij cj ji cj = ci Aij ji .

Esto lo podemos resumir en el siguiente teorema que presentaremos sin demostracion.

ar

i Teorema: Dado un operador lineal A : Vn Vn , si la representacion matricial de A es diagonal,


e A |ej i = Aj ji , entonces existe una base ortogonal {|e1 i , |e2 i , |e3 i , |en i}5 y un conjunto de
i

cantidades {1 , n , , n } tales que se cumple

in
A |ei i = i |ei i con i = 1, 2, n . J

lim
Igualmente se cumple que si existe una base ortogonal {|e1 i , |e2 i , |e3 i , |en i} y un conjunto de can-
tidades {1 , n , , n } tales que satisfagan

A |ei i = i |ei i con i = 1, 2, n ,

entonces se cumple que la representaci


on matricial de A es diagonal

Algunos comentarios

i
re
e A |ej i = Aij = diag (1 , n , , n ) .
rP
1. Notese que si |i es autovector de A para un determinado autovalor entonces |i = |i (un vector
proporcional a |i, con un n umero complejo) tambien es un autovector para el mismo autovalor.
Esto representa una inc omoda ambig uedad: dos autovectores que corresponden al mismo autovalor. Un
intento de eliminarla es siempre considerar vectores |i normalizados, i.e. h |i = 1. Sin embargo, no
deja de ser un intento que no elimina la ambig uedad del todo porque siempre queda el angulo de fase
o

arbitrario. Esto es, el vector ei |i, con un n


umero real arbitrario, tiene la misma norma del vector
|i. Sin embargo esta arbitrariedad es inofensiva. En Mecanica Cuantica las predicciones obtenidas
ad

con |i son las mismas que con ei |i.


2. Un autovalor ser
a no degenerado o simple si esta asociado a un unico autovector |i6 de lo contrario
si denominar
a degenerado si existen dos o mas autovectores de A, linealmente independientes asociados
al mismo autovalor . El grado (o el orden) de la degeneraci on es el numero de vectores linealmente
rr

independientes que esten asociados al mencionado autovalor .


on de un autovalor expande un espacio vectorial S () Vn (denominado
3. El orden de degeneraci
Bo

autoespacio) cuya dimensi


on es el orden de la degeneracion. Esto es si es gdegenerado, entonces
existen
{|1 i , |2 i , |3 i , |g i} A |i i = |i i ,
5 Realmente un conjunto de vectores linealmente independientes, pero como siempre se puede ortogonalizar mediante el

m
etodo de Gram Smith, consideraremos que es una base ortogonal de entrada.
6 Con la arbitrariedad del calibre antes mencionado.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 232
4.6. AUTOVECTORES Y AUTOVALORES

adicionalmente un autovector correspondiente al autovalor puede ser expresado como


|i = ci |i i con i = 1, 2, , g ,
con lo cual
A |i = ci A |i i = ci |i i = |i .

Ejemplos
E
1. Reflexi on respecto al plano xy. Si R : V3 V3 es tal que R |i = donde se ha realizado una

reflexi
on en el plano xy. Esto es
R |ii = |ii ; R |ji = |ji ; R |ki = |ki ,

ar
con |ii , |ji , |ki los vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy ser
a
autovector de R con un autovalor = 1, mientras que cualquier otro vector |i V3 y que no este
en el mencionado plano cumple con |i = c |ki y tambien sera autovector de R pero esta vez con un

in
autovalor = 1.
2. Dos visiones de rotaciones de
angulo fijo . La rotaciones de un vector en el plano pueden verse

lim
de dos maneras.

a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana canonica:
|ii = (1, 0) , |ji = (0, 1), esto es, si:
R |ai = |ai el angulo de rotacion = n con n entero.

plano en su forma polar |zi = rei por lo cual re


b) Igualmente si consideramos el plano complejo unidimensional, expresemos cualquier vector en el

R |zi = rei(+) = ei |zi ,


rP
si queremos = ei reales, necesariamente = n con n entero.

3. Autovalores y autovectores de proyectores. Es interesante plantearse la ecuacion de autovalores


on del proyector para un determinado autoespacio. Esto es, dado P = |i h| si este
con la definici
proyector cumple con una ecuaci on de autovalores para un |i supuestamente arbitrario
o

P |i = |i P |i = (|i h|) |i |i |i ,
ad

es decir, necesariamente |i es colineal con |i. Mas a


un, si ahora el |i no es tan arbitrario sino que
es ortogonal a |i , h |i = 0 = 0, entonces el espectro del operador P = |i h| es 0 y 1, el
primero de los cuales es infinitamente degenerado y el segundo es simple. Esto nos lleva a reflexionar
que si existe un autovector de un determinado operador, entonces su autovalor es distinto de cero, pero
pueden existir autovalores nulos que generan un autoespacio infinitamente degenerado.
rr

4. El operador diferenciaci on: D |f i D (f ) = f 0 . Los autovectores del operador diferenciaci


on
necesariamente deben satisfacer la ecuacion
Bo

D |f i = |f i D (f ) (x) = f 0 (x) = f (x) ,


la soluci
on a esta ecuaci
on ser
a una exponencial. Esto es
|f i f (x) = cex , con c 6= 0 ,
las f (x) se denominar
an autofunciones del operador.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 233
4.6. AUTOVECTORES Y AUTOVALORES

4.6.2. Autovalores, autovectores e independencia lineal


Uno de los teoremas m as u
tiles e importantes tiene que ver con la independencia lineal de los autovecto-
res correspondientes a distintos autovalores de un determinado operador lineal. Este importante teorema se
puede concretar en lo siguiente:

Teorema: Sean {|1 i , |2 i , |3 i , |k i} autovectores del operador A : Vm Vn . Supongamos que


existen k autovalores: {1 , 2 , , k }, distintos correspondientes a cada uno de los autovectores |j i, en-
tonces los {|1 i , |2 i , |3 i , , |k i} son linealmente independientes.

Demostraci
on La demostraci
on de este teorema es por induccion y resulta elegante y sencilla.

ar
Primeramente demostramos que j = 1.
Obvio que el resultado se cumple y es trivial para el caso k = 1 (un autovector |1 i que corresponde a
un autovalor 1 es obvia y trivialmente linealmente independiente).

in
Seguidamente supondremos que se cumple para j = k 1.
Si existen {|1 i , |2 i , |3 i , |k1 i} autovectores de A correspondientes a {1 , 2 , , k1 } en-
tonces los {|1 i , |2 i , |3 i , |k1 i} son linealmente independientes.

lim
Ahora lo probaremos para j = k.
Por lo cual si tenemos k autovectores {|1 i , |2 i , |3 i , |k i}, podremos construir una combinaci
on
lineal con ellos, y si esa combinaci
on lineal se anula seran linealmente independientes.

cj |j i = 0 con j = 1, 2, , k ,

re
al aplicar el operador A a esa combinacion lineal, obtenemos

cj A |j i = 0 cj j |j i = 0 ,
rP
multiplicando por k y restando miembro a miembro obtenemos

cj (j k ) |j i = 0 con j = 1, 2, , k 1 ,

(n ltimo ndice es k1) pero, dado que los k1 vectores |j i son linealmente independiente,
otese que el u
o

entonces tendremos k 1 ecuaciones cj (j k ) = 0, una para cada j = 1, 2, , k 1. Dado que


j 6= k necesariamente llegamos a que cj = 0 para j = 1, 2, , k 1 y dado que
ad

cj |j i = 0 con j = 1, 2, , k cj 6= 0 ,

con lo cual si
cj |j i = 0 cj = 0 con j = 1, 2, , k ,
rr

y los {|1 i , |2 i , |3 i , |k i} son linealmente independientes y queda demostrado el teorema. J

Es importante acotar que el inverso de este teorema NO se cumple. Esto es, si A : Vm Vn tiene
Bo

{|1 i , |2 i , |3 i , , |n i} autovectores linealmente independientes, NO se puede concluir que existan n


autovalores {1 , 2 , , n } distintos correspondientes a cada uno de los autovectores |j i.
El teorema anterior lo complementa el siguiente que lo presentaremos sin demostracion. Este teorema
ser
a de gran utilidad en lo que sigue.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 234
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

Teorema: Si la dim (Vn ) = n cualquier operador lineal A : Vn Vn tendra un maximo de n autovalores


distintos. Adicionalmente, si A tiene precisamente n autovalores: {1 , 2 , , n }, entonces los correspon-
dientes n autovectores, {|1 i , |2 i , |3 i , , |n i}, forman una base para Vn y la representacion matricial,
en esa base, del operador ser a diagonal

i
A |j i = Aij = diag (1 , 2 , , n ) . J

4.6.3. Ejercicios
1. Si |v1 i y |v2 i son autovectores del operador lineal A que corresponden a distintos autovalores. Muestre
que |v1 i + |v2 i ( 6= 0, 6= 0) no puede ser un autovector de A.

ar
2. Demuestre que si todo vector de un espacio vectorial V es un autovector del operador lineal A, entonces
A = I. Donde I es el operador identidad.

3. Demuestre que si el operador lineal A conmuta con todos operadores que act
uan em un determinado

in
espacio vectorial, entonces A = I.
4. Si un operador lineal A tiene un autovector |v0 i con autovalor 0 . Demuestre que |v0 i es tambien un
autovector del operador A2 con autovalor 20 .

lim
5. Aun si un operador lineal A no tiene autovectores el operador A2 puede llegar a tenerlos. Demuestre
que si A2 tiene un autovector con un autovalor no degenerado 0 = 2 , entonces A tiene un autovector.

4.7. Autovalores y autovectores de un operador


Una vez m re
as, supongamos que A : V V y que dim V = n, y ademas {|e1 i , |e2 i , |e3 i , |en i} es una
base ortogonal para V. Por lo tanto, la representacion matricial de la ecuacion de autovalores es la siguiente
rP

i
e A |ej i ej |i = ei |i Aij cj = ci Aij ji cj = 0 ,




con j = 1, 2, , n. 
El conjunto de ecuaciones: Aij ji cj = 0, puede ser considerado un sistema (lineal y homogeneo) de
ecuaciones con n inc ognitas cj .
o

4.7.1. El polinomio caracterstico.


ad

Dado que un sistema lineal y homogeneo de ecuaciones con n incognitas tiene solucion si el determinante
de los coeficientes se anula, tendremos que

Aij ji cj = 0 det [A1] = 0 P () = det Aij ji = 0 .


  
rr

Esta ecuacion se denomina ecuaci on caracterstica (o secular) y a partir de ella emergen todos los auto-
valores (el espectro) del operador A, esto es:
Bo

1
A12 A1n

A1
2 2 2

A 1 A 2 A n

det Aij ji =
 
= 0.

.. . .

. .

An A n
Ann
1 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 235
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

El resultado sera un polinomio de grado n (el polinomio caracterstico). Las races de este polinomio ser an
los autovalores que estamos buscando. Es claro que estas races podran ser reales y distintas, algunas reales
e iguales y otras imaginarias.
Es importante senalar que

el
polinomio caracterstico sera independiente de la base a la cual este referida
on matricial ui A |uj i del operador A.
la representaci

Primero los autovalores, luego los autovectores


El procedimiento es el siguiente. Una vez obtenidos (los autovalores) las races del polinomio caractersti-
co, se procede a determinar el autovector, |j i , correspondiente a ese autovalor. Distinguiremos en esta
determinaci on casos particulares dependiendo del tipo de raz del polinomio caracterstico.
Ilustraremos estos casos con ejemplos para el caso especfico de matrices reales 3 3.

ar
Ejemplos

in
1. Una matriz 3 3 con 3 autovalores reales distintos

2 1 3 2 1 3

i  i i

e A |ej i =
1 2 3 det Aj j = 1 2 3 = 0,

lim

3 3 20 3 3 20

con lo cual el polinomio caracterstico queda expresado como

3 242 + 65 42 = ( 1) ( 2) ( 21) = 0 ,

autovalor resolvemos la ecuaci

a) 1 = 1
re
y es claro que tiene 3 races distintas. Para proceder a calcular los autovectores correspondientes a cada
on de autovalores para cada autovalor. Esto es
rP
1 1
2x1 + x2 + 3x3 x1

2 1 3 x x =
1 2 3 x2 = x2 x1 + 2x2 + 3x3 = x2
3 3 20 x3 x3 3x1 + 3x2 + 20x3 = x3 ,
que constituye un sistema de ecuaciones algebraicas de 3 ecuaciones con 3 incognitas. Resolviendo
el sistema tendremos el primer autovector (1 )
o

1
x 1
(1 ) = x2 = 1 ,
ad

x3 0

con un n
umero distinto de cero.
b) 2 = 2
rr

1 1
2x1 + x2 + 3x3 = 2x1

2 1 3 x x
1 2 3 x2 = 2 x2 x1 + 2x2 + 3x3 = 2x2
Bo

3 3 20 x3 x3 3x1 + 3x2 + 20x3 = 2x3 .

Resolviendo el sistema se tiene el segundo autovector


1
x 3
(2 ) = x2 = 3 .
x3 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 236
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

c) 3 = 21
1 1
2x1 + x2 + 3x3 21x1

2 1 3 x x =
1 2 3 x2 = 21 x2 x1 + 2x2 + 3x3 = 21x2
3 3 20 x3 x3 3x1 + 3x2 + 20x3 = 21x3 .

Al resolver este sistema el tercer autovector


x1

1
(3 ) = x2 = 1 .
x3 6

ar
2. Una matriz 3 3 con 2 autovalores reales distintos, es decir, una matriz con autovalores repetidos


i 4 3 1 4 3 1
e A |ej i = 4 1 0 det Aj ji = 4
 i 
1 0 = 0,

in

1 7 4 1 7 4

con lo cual el polinomio caracterstico queda expresado como

lim
2
3 + 2 5 3 = ( + 3) ( 1) = 0 ,

y es claro que tiene 2 races iguales y una distinta. En este caso = 1 es un autovalor degenerado de
orden 2. Ahora resolveremos la ecuacion de autovalores para cada autovalor.

a) 1 = 3

4
4
1
3
1
7
1

4
1
x

x3
1
x

x3
re
0 x2 = 3 x2
4x1 3x2 + x3
4x1 x2
x + 7x2 4x3
1
= 3x1
= 3x2
= 3x3 .
rP
Resolviendo
x1

1
(1 ) = x2 = 2 .
x3 13
o

b) 2 = 1 (autovalor degenerado de orden 2)

x1
1
4x1 3x2 + x3 = x1

4 3 1 x
ad

4 1 0 x2 = x2 4x1 x2 = x2
1 7 4 x3 x3 x + 7x2 4x3
1
= x3 .

Resolviendo el sistema tendremos el segundo autovector


rr

1
x 1
(2 ) = x2 = 2 .
Bo

x3 3

3. Otra matriz 3 3 con autovalores repetidos



2 1 1  2 1 1


i  i i

e A |ej i =
2 3 2 det Aj j = 2 3 2 = 0,

3 3 4 3 3 4

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 237
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

con lo cual el polinomio caracterstico es


2
3 + 2 5 3 = ( 7) ( 1) = 0 ,

que tiene 2 races iguales y una distinta. En este caso = 1 vuelve a ser un autovalor degenerado de
orden 2. Volvemos a calcular los autovectores correspondientes a cada autovalor

a) 1 = 7 1 1
2x1 + x2 + x3 7x1

2 1 1 x x =
2 3 2 x2 = 7 x2 2x1 + 3x2 + 3x3 = 7x2
3 3 4 x3 x3 3x1 + 3x2 + 4x3 = 7x3 .

ar
Al resolver el sistema
x1

1
(1 ) = x2 = 2 .
x3 3

in
b) 2 = 1. En este caso el autovalor degenerado de orden 2 presenta una peque
na patologa. Veamos
1 1
2x1 + x2 + x3 = x1

2 1 1 x x

lim
2 3 2 2
2 x = x 2x1 + 3x2 + 2x3 = x2
3 3 4 x3 x3 3x1 + 3x2 + 4x3 = x3 .

Resolviendo 1

x 1

x2 = 0

(2 ) =








rex3
1
x

1

0

rP



x2 = 1

x3 1

con lo cual el autovector (2 ) correspondiente al autovalor 2 = 1 se podra escribir como


1
x 1 0
(2 ) = 1 (2 ) + 2 (2 ) = x2 = 0 + 1 .
o

x3 1 1
ad

4. Una matriz 3 3 con 1 autovalor real y dos autovalores complejos



1 2 3 1 2 3

i
e A |ej i = 3 1 2 det Aj ji = 3
 i 
1 2 = 0,
rr


2 3 1 2 3 1

con lo cual el polinomio caracterstico queda expresado como


Bo

3 32 15 18 = ( 6) 2 + 3 + 3 = 0 ,


En este caso 1 = 6 es un autovalor real. Adicionalmente


 existen dos
autovalores complejos, uno
el complejo conjugado del otro: 2 = 21 3 + i 3 y 3 = 12 3 i 3 . Para proceder a calcular

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 238
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

los autovectores correspondientes a cada autovalor resolvemos la ecuacion de autovalores para cada
autovalor real. En este caso existe un u
nico autovalor real = 6.
1 1
4x1 3x2 + x3 6x1

1 2 3 x x =
3 1 2 x2 = 6 x2 4x1 x2 = 6x2
2 3 1 x3 x3 x1 + 7x2 4x3 = 6x3 .

Tendremos que para = 6


x1

1
(=6) = x2 = 1 .
x3 1

ar
Practicando con Maxima:

En este ejercicio aprenderemos a resolver el problema de autovalores y autovectores. Primeros lo haremos

in
de manera indirecta, realizando los c
alculos por pasos, y luego usando las funciones especficas del programa.
Dada la matriz A del primer ejemplo anteriormente resuelto:
(%i1) A:matrix([2,1,3], [1,2,3], [3,3,20]);

lim

2 1 3
( %o1) 1 2 3
3 3 20
Generamos la matriz identidad 3 3 con el comando ident(n).
(%i2) I:ident(3);

1 0 0
( %o2) 0 1 0
re
rP
0 0 1
Escribimos la ecuaci
on de autovalores de manera matricial y la llamaremos M .
(%i3) M:A-lambda*I;

2 1 3
o

( %o3) 1 2 3
3 3 20
ad

El determinante nos da el polinomio caracterstico, luego resolvemos para .


(%i4) factor(determinant(M));
rr

( %o4) ( 21) ( 2) ( 1)
(%i5) solve(%=0);
Bo

( %o5) [ = 1, = 2, = 21]

Los autovalores son: 1 = 1, 2 = 2 y 3 = 21. Para cada autovalor evaluaremos una matriz correspon-
diente:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 239
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

(%i6) M1:M,lambda=1; M2:M,lambda=2; M3:M,lambda=21;



1 1 3
( %o6) 1 1 3
3 3 19

0 1 3
( %o7) 1 0 3
3 3 18
19 1 3
( %o8) 1 19 3
3 3 1

ar
Necesitamos ahora resolver, para cada autovalor, la ecuacion de autovectores: AX = i X. As que
podemos escribir las siguientes matrices:

in
(%i9) M1:M1.[x,y,z]; M2:M2.[x,y,z]; M3:M3.[x,y,z];

3z + y + x
( %o9) 3 z + y + x

lim
19 z + 3 y + 3 x
3z + y
( %o10) 3z + x
18 z + 3 y + 3 x

3 z + y 19 x
( %o11) 3 z 19 y + x
z + 3 y + 3 x re
Iremos ahora resolviendo cada uno de los sistemas de ecuaciones. Para 1 = 1:
rP
(%i12)ec1:M1[1,1]=0; ec2:M1[2,1]=0; ec3:M1[3,1]=0;
( %o12) 3 z + y + x = 0
( %o13) 3 z + y + x = 0
( %o14) 19 z + 3 y + 3 x = 0
o

(%i15)solve([ec1,ec2,ec3],[x,y,z]);
ad

solve: dependent equations eliminated: (2)


( %o15) [[x = %r4 , y = %r4 , z = 0]]

Recordemos que Maxima nos indica con el smbolo %rn que se trata de una constante. As que de las
infinitas soluciones escogemos alguna de las mas simples: (1, 1, 0).
rr

Repetimos los c alculos para el segundo autovalor, es decir, 2 = 2:


(%i16)ec1:M2[1,1]=0; ec2:M2[2,1]=0; ec3:M2[3,1]=0;
Bo

( %o16) 3 z + y = 0
( %o17) 3 z + x = 0
( %o18) 18 z + 3 y + 3 x = 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 240
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

(%i19)solve([ec1,ec2,ec3],[x,y,z]);

solve: dependent equations eliminated: (3)


( %o19) [[x = 3 %r5 , y = 3 %r5 , z = %r5 ]]

Por lo tanto un autovector puede ser: (1, 1, 1/3).


Finalmente, para 3 = 21:
(%i20)ec1:M3[1,1]=0; ec2:M3[2,1]=0; ec3:M3[3,1]=0;
( %o20) 3 z + y 19 x = 0
( %o21) 3 z 19 y + x = 0

ar
( %o22) z + 3 y + 3 x = 0
(%i23)solve([ec1,ec2,ec3],[x,y,z]);

in
solve: dependent equations eliminated:
  (3)
%r6 %r6
( %o23) x = ,y = , z = %r6
6 6

lim
Podemos tomar como autovector a: (1, 1, 6).
Maxima ofrece la posibilidad de resolver el problema de autovalores a traves de un determinado n umero
de funciones. Por ejemplo, la funci
on charpoly nos dara el polinomio caracterstico directamente de la matriz
que queremos estudiar y respecto de la variable que seleccionemos, es este caso sera .
(%i24)charpoly(A,lambda);

re
( %o24) + ((2 ) (20 ) 9) (2 ) + 3 (3 3 (2 )) 11
(%i25)factor(%);
rP
( %o25) ( 21) ( 2) ( 1)
(%i26)solve(%=0);
( %o26) [ = 1, = 2, = 21]
o

El programa tambien permite obtener los autovalores directamente de la matriz problema. Esto se hace
con el comando eigenvalues(M). El resultado sera una lista conformada a su vez por dos listas: la primera
ad

sublista la forman los valores propios de la matriz M y la segunda sus multiplicidades correspondientes.
Veamos:
(%i27)eigenvalues(A);
rr

( %o27) [[1, 2, 21] , [1, 1, 1]]

La funci
on para calcular los autovectores es eigenvectors(M). El resultado sera una lista con dos
Bo

elementos; el primero esta formado por dos listas: la primera con los valores propios de M y la segunda con
sus respectivas multiplicidades, el segundo elemento es una lista de listas de vectores propios, una por cada
valor propio.
(%i28)eigenvectors(A);

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 241
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

    
1
( %o28) [[1, 2, 21] , [1, 1, 1]] , [[1, 1, 0]] , 1, 1, , [[1, 1, 6]]
3
Para el ejemplo 2 tratado anteriormente, tenamos la matriz
(%i29)B:matrix([4,-3,1], [4,-1,0], [1,7,-4]);

4 3 1
( %o29) 4 1 0
1 7 4
(%i29)eigenvectors(B);

( %o29) [[[3, 1] , [1, 2]] , [[[1, 2, 13]] , [[1, 2, 3]]]]

ar
Notemos que s
olo se obtienen dos autovectores. Para el ejemplo 3:
(%i28)C:matrix([2,1,1], [2,3,2], [3,3,4]);

in

2 1 1
( %o29) 2 3 2
3 3 4

lim
(%i28)eigenvectors(C);

( %o29) [[[7, 1] , [1, 2]] , [[[1, 2, 3]] , [[1, 0, 1] , [0, 1, 1]]]]

Y finalmente el ejemplo 4:
(%i28)D:matrix([1,2,3], [3,1,2], [2,3,1]);

1 2 3
re
rP
( %o29) 3 1 2
2 3 1
(%i28)eigenvectors(D);
""" # # """ ## "" ## ##
3i + 3 3i 3 3i 1 3i + 1 3i + 1 3i 1
( %o29) , , 6 , [1, 1, 1] , 1, , , 1, , , [[1, 1, 1]]
2 2 2 2 2 2
o
ad

El caso degenerado
Como hemos visto, existen situaciones en las cuales un determinado autovalor = 0 es degenerado,
rr

estudiemos esta situacion con un poco de detalle.  


Consideremos una matriz n n, Aij , por lo cual el polinomio caracterstico P () = det Aij ji = 0
a una raz degenerada de orden k n. Entonces el siguiente teorema garantiza la existencia de al menos
tendr
Bo

un subespacio S (0 ) Vn .

Teorema: Sea un operador lineal A : Vn Vn con una representacion matricial n n tal que su
polinomio P () = det Aij ji = 0 tiene al menos una raz degenerada = 0 , de orden k n. Entonces

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 242
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

existen k autovectores, no triviales, que cumplen con

A |j i = 0 |j i con j = 1, 2, , k .

Demostraci on:
La demostracion tambien emerge de una variante del Metodo de Induccion Completa. Para ello, probamos
que se cumple para j = 1. Esta afirmaci on es obvia. Si existe un = 0 existe un |j i, tal que cumple con
la ecuaci
on anterior el es linealmente independiente con el mismo.
Suponemos que se cumple para 1 j = m k. Es decir, existen m autovectores |j i de A para el
autovalor 0 . Definamos un subespacio S0 = S (0 ) Vn donde

|j i S0 / A |j i = 0 |j i A |j i S0 con j = 1, 2, , m ,

ar
por lo tanto, podremos separar Vn como una suma directa entre el subespacio S0 y N , su complemento
ortogonal
Vn = S0 N / A |j i = 0 |j i |i N h |j i = 0 ,

in
claramente S0 es un subespacio invariante de A por cuanto su accion se circunscribe dentro del mismo
subespacio S0 .

lim
Mostraremos que se cumple para operadores hermticos, por cuanto no es verdad en general, entonces

h |j i = 0
hj |i = 0 = hj | A |i = hj | A |i ,
A |j i = 0 |j i

hermtico A.
re
de donde se concluye que el vector es ortogonal a S0 y por lo tanto esta en el complemento ortogonal
A |i N (por hip otesis |i N ). Esto implica que N tambien es un espacio invariante del operador

Entonces, el espacio Vn puede expresarse como una suma directa de los dos subespacios invariantes
rP
respecto al operador lineal A y su representacion matricial en la base de autovectores tendra la forma de una
matriz diagonal a bloques:
1
Q1 Q1m 0 0

1 0 0 0
.. .. .. .. . .. . . . .. ..
. .. . ..

. . . . . . 0
o

m m


j j
Q1 Qm 0 0 0 1
0 0
u A |ui i = Ai
m+1 m+1

0 0 1 0 0 0 0 Rm+1 Rn

ad


. . . . . . . . . . . .
. . . . . . . . . . . .

. . . . . . . . . . . .
n
0 0 0 1 0 0 Rm+1 Rnn

donde Q
y R son matrices m m y (n m) (n m), respectivamente. La matriz Q opera en S0
rr


mientras que R actua sobre el complemento ortogonal N .
El polinomio caracterstico de A puede expresarse como
Bo

P () = det Aij ji = 0 P () = det Qij ji det Rji ji = 0 ,


     

 
ultiple del polinomio caracterstico que anula el det Qij ji , tendremos que
y como = 0 es la raz m
m
det Qij 0 ji = 0 P () = ( 0 ) F ()
 
con F (0 ) 6= 0 ,

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 243
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

donde 0 no es raz del polinomio F (). Ahora bien, para que se cumpla cuando j = k el polinomio
caracterstico es
k m k
j = k P () = ( 0 ) R () ( 0 ) F () = ( 0 ) R () .
Otra vez 0 no es raz del polinomio R (). La ecuacion anterior se cumple para todo en particular para
= 0 . Por lo tanto,
km R ()
1 = ( 0 ) .
F ()
Es claro que = 0 obliga a k = m. J

4.7.2. Ejercicios

ar
1. Encuentre los autovalores y autovectores de la siguiente matriz

1 3 1

in
A= 3 4 2
1 2 2
y verifique si los autovectores son ortogonales entre ellos.

lim
2. Demuestre que la matriz
2 0 0
A = 6 4 4
3 1 0
no tiene tres autovectores linealmente independientes y que cualquier autovector tiene la forma:

re
3 2

rP

3. Construimos un sistema con tres partculas rgidamente unidas, colocadas en tres puntos distintos de
la siguiente forma

1 1 1
m1 = 1 1 m2 = 2 1 y m3 = 1 1
o

2 0 2
ad

a) Encuentre la matriz del tensor de inercia.


b) Diagonalice esa matriz y encuentre los ejes principales de inercia.
4. En Mecanica Cuantica, el problema del oscilador armonico simple puede ser representado por un
rr

problema de autovalores
d2 x2 1
L| >= | > < x|L| >= < x| > L(x) = (x) donde L 2
+ +
dx 4 2
Bo

Si construimos un par de operadores


x d x d
L+ = + y L =
2 dx 2 dx
Utilice los resultados del problema anterior y construya las nuevas autofunciones de L con sus autova-
lores.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 244
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

4.8. Autovalores y autovectores de matrices importantes


En esta seccion presentaremos ejemplos de autovalores y autovectores de matrices de importancia en el
campo de la Fsica, esto incluye, por supuesto, el importante problema de las matrices complejas.

4.8.1. Autovalores y autovectores de matrices similares


Supongamos la representaci on matricial de un determinado operador lineal A : V V (dim V = n),
y adem as que {|e1 i , |e2 i , |e3 i , |en i} y {|w1 i , |w2 i , |w3 i , |wn i} son dos bases ortogonales para V.
Entonces
A |ej i = Alj |el i y A |wj i = Alj |wl i ,

ar
con: Aij = ei A |ej i y Aij = wi A |wj i. Ahora bien, cada uno de los vectores base {|ej i} y {|wj i} puede ser


expresado en las otras bases {|wj i} y {|ej i} respectivamente como



|wj i = jl |el i ,

in
1
|wj i = jl lm |wm i jl lm = lm jl = jm lm = (lm ) .
m
|el i = l |wm i

lim
Las cantidades jl son n
umeros que pueden ser arreglados como una matriz. Esa matriz, adicionalmente
es no singular7 por ser la representaci
on de una transformacion lineal que aplica una base en otra.
Entonces adem as

|wj i = jl |el i A |wj i = jl A |el i Alj |wl i = jm Akm |ek i = jm Akm kh |wh i ,

con lo cual
re
Alj = jm Akm kl Alj = kl Akm jm Alj = kl
1
| {z }
jh

Akm jm ,
rP
que puede ser expresada en el lenguaje de operadores, finalmente como
1
k
= C1 AC wi A |wj i = ki e A |em i jm .


A

De esta manera hemos demostrado el siguiente teorema:


o

Teorema: Dadas dos matrices, n n, Alj y Aij las cuales corresponden a la representacion matricial de un
operador A en las bases ortogonales {|ei i} y {|wi i}, respectivamente. Entonces existe una matriz jl , no
ad

singular, tal que


= C1 AC wi A |wj i = i 1 ek A |em i m . J



A k j

El inverso de este teorema tambien se cumple. Vale decir:


Teorema: Si dos matrices n n, Alj y Aij , estan relacionadas por la ecuacion
rr

= C1 AC |wj i = i 1 wk A |wm i m ,

i 

A w A k j
Bo

y A representan el mismo operador lineal.


donde C es una matriz no singular, entonces A

 
7 det ij 6= 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 245
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Demostraci on: Para proceder a demostrarlo supondremos A : V V y que dim V = n, supongamos


as que: {|ei i} y {|wi i} son bases de V, de tal forma que
adem

|wj i = jl |el i
1
|wj i = jl lm |wm i jl lm = lm jl = jm lm = (lm ) ,
m
|el i = l |wm i

donde
1
jl = el |wj i lm = (lm ) = hwm |el i .

y
Supongamos que
A |ej i = Alj |el i , con: Aij = ei A |ej i |wj i = Al |wl i , |wj i ,
con: Aij = wi A



y A j

ar
al actuar A sobre |wj i tendremos
1
A |wj i = jl A |el i = jl Akl |ek i = jl Akl km |wm i = km Akl jl |wm i = (km ) Akl jl |wm i ,
| {z }

in
ji
hwi |A|w

que es exactamente la representaci Con lo cual A A


on matricial de A. y queda demostrado el teorema. J

lim
on: Dos matrices, Akl y Aij , n n, se denominaran similares si existe una matriz no singular ki
Definici
tal que
= C1 AC wi A |wj i = i 1 wk A |wm i m . J



A k j
Podemos juntar los dos teoremas anteriores y afirmar que:

re
Teorema: Dos matrices, Akl y Aij , n n, similares representan la misma transformacion lineal.
Teorema: Dos matrices, Akl y Aij , n n, similares tienen el mismo determinante.
rP
Demostraci
on: La demostraci
on es inmediata y proviene de las propiedades del determinante de un
producto: h i
= det C1 AC = det C1 det [A] det [C] = det [A] . J
   
det A
Con lo cual es inmediato el siguiente Teorema.
o

Teorema: Dos matrices, Akl y Aij , n n, similares tienen el mismo polinomio caracterstico y con ello el
mismo conjunto de autovalores.
ad

Demostraci
on: Es inmediato verificar que
I = C1 AC I = C1 (A I) C ,
A
rr

y dado que
h i
I = det C1 (A I) C = det C1 det [A I] det [C] = det [A I] .
   
det A
Bo

Por lo tanto, ambas matrices, A y A, tendran el mismo polinomio caracterstico y con ello el mismo
conjunto de autovalores. J
Todos los teoremas de esta secci
on pueden ser resumidos en el siguiente teorema

Teorema: Sea un operador lineal A : V V y dim V = n, supongamos ademas que el polinomio


caracterstico tiene n races distintas, {1 , 2 , . . . , n }. Entonces tendremos que:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 246
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Los diferentes autovectores {|u1 i , |u2 i , , |un i} correspondientes a los {1 , 2 , . . . , n }, formar


an
una base para V.


on matricial del operador uk A |um i en la base de autovectores {|u1 i , |u2 i , , |un i},
La representaci
ser
a diagonal
Akm = Wm k
= uk A |um i = diag (1 , 2 , . . . , n ) .



on matricial, ek A |em i, del operador A en otra base de V, estara relacio-
Cualquier otra representaci
nada con la representaci
on diagonal mediante una transformacion de similaridad
1
k
W = C1 AC diag (1 , 2 , . . . , n ) = ki e A |em i jm ,

ar
donde jm es una matriz, no singular y por lo tanto invertible, de cantidades que relacionan ambas
bases
|uj i = jl |el i
1
lm = (lm ) lm jl = jm .

in
m
|el i = l |um i

La demostracion, en terminos de los teoremas anteriores es inmediata y se la dejamos como ejercicio al

lim
lector.
Una clase importante de transformaciones de similaridad son aquellas en las que C es unitaria, en esta
caso se tiene que W = C1 AC = C AC. Ademas, si la base original {|ei i} es ortonormal y la matriz C es
unitaria, entonces, la nueva base ser
a ortonormal.
Las siguientes propiedades pueden ser de gran utilidad:

re
Si A es hermtica (anti-hermtica) entonces W es hermtica (anti-hermtica).

W = (C AC) = C A C = C AC = W .
rP
Si A es unitaria, es decir A = A1 , entonces W es unitaria.

W W = (C AC) (C AC) = C A CC AC = C A AC = C IC = I .

Ejemplo Dada la siguiente matriz real


o


1 0 3
2
ad

A= 0 0
3 0 1

Los autovalores y autovectores para A son


rr


1 = 4 |u1 i = (1 0 1)T
P () = ( 4)( + 2)2 = 0 2 = 2 |u2 i = (0 1 0)T
3 = 2 |u3 i = (1 0 1)T

Bo

La matriz A se puede diagonalizar a traves de la transformacion C AC, donde C se construye con los
vectores normalizados de A como columnas.

1 0 1
1
C= 0 2 0 .
2 1 0 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 247
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

A pesar que los autovalores de A son degenerados ( = 4, 2, 2) sus tres autovectores son linealmente
independientes, por lo tanto:

1 0 1 1 0 3 1 0 1 4 0 0
1
C AC = 0 2 0 0 2 0 0 2 0 = 0 2 0 .
2
1 0 1 3 0 1 1 0 1 0 0 2

Practicando con Maxima:

Consideremos el ejemplo anterior


(%i1) A:matrix([1,0,3], [0,-2,0], [3,0,1]);

ar

1 0 3
( %o1) 0 2 0

in
3 0 1
(%i2) L:eigenvectors(A);

( %o2) [[[2, 4] , [2, 1]] , [[[1, 0, 1] , [0, 1, 0]] , [[1, 0, 1]]]]

lim
El resultado es una lista con los autovalores y su multiplicidad, y para cada autovalor los autovectores
como sublistas. Es necesario manipular estas sublistas para obtener los autovectores:
(%i3) L2:L[2]$ SL1:L2[1]; SL2:L2[2];
( %o3) [[1, 0, 1] , [0, 1, 0]]
( %o4) [[1, 0, 1]]

Por lo tanto, una lista con los autovectores es la siguiente


re
rP
(%i5) [SL1[1],SL1[2],SL2[1]];
( %o5) [[1, 0, 1] , [0, 1, 0] , [1, 0, 1]]

Notemos el orden: los dos primeros vectores corresponden al autovalor 2 y el tercero al autovalor 4.
o

Vamos ahora a normalizar cada vector.


(%i6) V1:SL1[1]sqrt(SL1[1].SL1[1]); V2:SL1[2]/sqrt(SL1[2].SL1[2]);
ad

V3:SL2[1]/sqrt(SL2[1].SL2[1]);
 
1 1
( %o6) , 0,
rr

2 2
( %o7) [0,
 1, 0] 
1 1
( %o8) , 0,
Bo

2 2
Hacemos una lista con los vectores normalizados:
(%i9) Lvec:[V1,V2,V3];

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 248
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

   
1 1 1 1
( %o9) , 0, , [0, 1, 0] , , 0,
2 2 2 2
Construimos la matriz C:
(%i10)C: transpose(apply(matrix,Lvec));

1 0 1

2 2
( %o10) 0 1 0
12 0 1
2
Y finalmente

ar
(%i11)transpose(C).A.C;

2 0 0
( %o11) 0 2 0

in
0 0 4

lim
4.8.2. Autovalores y autovectores de matrices hermticas
Tal y como mencionamos con anterioridad, un operador hermtico cumple con
i
 

A = A A j = ei A |ej i = ej A |ei i = Aji


,

re
esto es: el hermtico conjugado de una matriz, es su traspuesta conjugada. Por lo tanto, las matrices hermticas
son simetricas respecto a la diagonal y los elementos de la diagonal son n
Por su parte, llamaremos antihermtico a un operador que cumpla con:
umeros reales.
rP
i
 

A = A A j = ei A |ej i = ej A |ei i = Aji


.

Teorema: Suponga un operador hermtico A = A con autovalores: {1 , 2 , . . . , n }. Entonces:


Los autovalores {1 , 2 , . . . , n } son reales.
o

Los autovectores {|u1 i , |u2 i , , |un i}, correspondientes a cada uno de los autovalores, seran ortogo-
nales.
ad

Demostraci
on:
Para demostrar que los autovalores {1 , 2 , . . . , n } son reales, proyectamos la ecuacion de autovalores
en cada uno de los autovectores:
rr

A |i = |i h| A |i = h |i .

Ahora bien, dado que h |i es real, si demostramos que h| A |i es real, estara demostrado que lo
Bo

ser
a tambien. Pero como A es hermtico

h| A |i = h| A |i = h| A |i h| A |i R ,
y por consiguiente los autovalores {1 , 2 , . . . , n } son reales. Mas a
un, si A es hermtico, y como sus
autovalores son reales entonces
h| A = h| = h| h| A |i = h |i .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 249
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Para demostrar que los autovectores {|u1 i , |u2 i , , |un i} son ortogonales, consideremos dos auto-
vectores con sus correspondientes autovalores de tal forma que se cumplen las siguientes ecuaciones

A |i = |i y A |i = |i ,

pero como A es hermtico entonces se cumple que h| A = h|, multiplicando a la izquierda por |i
y a h| A = h| por h| a la derecha.

(h| A = h|) |i h| A |i = h |i
( ) h |i = 0 ,
h| (A |i = |i) h| A |i = h |i

ar
y como hemos supuesto que 6= con lo cual h |i = 0, los autovectores correspondientes a dos
autovalores son ortogonales. J

in
Ejemplo La siguiente matriz es un ejemplo de una matriz hermtica o autoadjunta:

1 1 + 2i i
A = 1 2i 2 1 A = A

lim
i 1 3

Los autovalores de esta matriz son:



1 = 4
2

P () = ( 4) 2 4 = 0 2 = 1 + 5

re
3 = 1 5

Los tres autovalores reales generan los siguientes autovectores:


rP

1
1 = 4 |u1 i = 1 i ,
1

3 3
1 1
o

2 = 1+ 5 |u2 i = 1 5i  , 3 = 1 5 |u3 i = 1 + 5i  .
3 3
52 1+ 5 i 52 1 5 i
ad

Estos vectores normalizados son



1 3
|u1 i 1 |u2 i 3
|
u1 i = p = 1 i , |
u2 i = p =p 1 5i  ,
hu1 |u1 i 2 hu2 |u2 i 30 + 6 5
1 52 1+ 5 i
rr


3
|u3 i 3
|
u3 i = p =p 1 + 5i  .
Bo

hu3 |u3 i 30 6 5 52 1 5 i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 250
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Se puede demostrar que los autovectores son ortogonales:



3
hu1 |u2 i = (u1 ) u2 = 0

1 1 + i 1 1 5 i  = 0
52 1+ 5 i

3
hu1 |u3 i = (u1 ) u3 = 0

1 1 + i 1 1 + 5i  = 0
52 1 5 i

3
hu2 |u3 i = (u2 ) u3 = 0
 
3 1 + 5i 5 2 + 1 + 5 i 1 + 5i  = 0
52 1 5 i

ar
La matriz A es entonces diagonalizable si construimos la siguiente matriz a partir de los autovectores
normalizados: 1
9 9

in
2 30+6 5 306 5



3(1 5 i) 3(1+ 5 i)

1i
P= 2

lim
30+6 5 306 5



1 3( 52(1+ 5)i) 3( 52(1 5)i)
2

30+6 5 306 5

Si elegimos la matriz diagonal a partir de los autovalores:



4
= 0 1+ 5
0
0

0
re 0

0 ,
1 5
rP
entonces resulta que es posible factorizar la matriz A de la siguiente forma (Para el lector se deja la com-
probaci
on)
A = PP .
En este caso, se dice que A es diagonalizable unitariamente, por ser diagonal y por ser P unitaria, es
decir, por satisfacer la propiedad
o

P = P1 .
ad

Es importante se
nalar el hecho de que si la matriz A es real, entonces

A = PPT .

con diagonal y P ortogonal: PT = P1 .


rr

En resumen, si A es una matriz hermtica perteneciente al espacio vectorial de matrices cuadradas n n


(A Cnn o A Rnn ) , entonces:
Bo

Sus autovalores son reales.


Los autovectores correspondientes a cada autovalor son ortogonales.
Los autovectores de A resultan ser una base ortonormal del espacio vectorial (Cnn o Rnn ).

as: A = PP , con P unitaria y diagonal. (Si la matriz A es real P sera ortogonal).


Adem

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 251
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

4.8.3. Autovalores y autovectores de matrices unitarias


Tal y como mencionamos anteriormente, un operador sera unitario si su inversa es igual a su adjunto.
Esto es
U1 = U U U = UU = I .
Dado que los operadores unitarios conservan la norma de los vectores sobre los cuales ellos act
uan, i.e.

|
xi = U |xi
h xi = hy| U U |xi = hy |xi ,
y |
|
y i = U |yi

son elementos naturales para representar cambios de base dentro de un espacio vectorial. De lo anterior se

ar
deduce que si {|ei i} es una base ortonormal, el conjunto de vectores transformados: |ej i = U |ej i, tambien
ser
an ortonormales:
|ej i = U |ej i ei |ej i = ei U |ej i = ei U U |ej i = ji .



in
Los operadores unitarios aplican vectores base de un espacio vectorial en otra. El siguiente teorema lo
ilustra.

lim
Teorema: La condici on necesaria y suficiente para que un operador U : Vn Vn sea unitario es que
aplique vectores de una base ortonormal {|ei i} en otra {|ei i}, tambien ortonormal.

Demostraci on: Demostremos primero la condicion necesaria. Si es unitario aplica una base en otra.
Esto es, supongamos que los vectores {|ej i} forman una base ortonormal para Vn . Sean |i, y U |i Vn .
Estos vectores pueden ser expresados en terminos de la base {|ej i} de Vn . Por lo tanto, si seleccionamos
U |i se cumple que:
re
U |i = cj |ej i UU |i = cj U |ej i = cj |ej i |i = cj |ej i ,
rP
donde hemos aplicado el operador U a la ecuacion U |i = cj |ej i y el resultado es que el otro vector, |i,
tambien se pudo expresar como combinacion lineal de los vectores transformados {|ej i} de la base {|ej i}.
Y por lo tanto, los {|ej i} tambien constituyen una base. Es decir, los operadores unitarios aplican una base
ortonormal en otra.
La condici on de suficiencia (Si aplica una base en otra es unitario) se puede demostrar como sigue. Si
o

{|ej i} y {|ej i} son bases ortonormales de Vn y una es la transformada de la otra implica que

|ej i = U |ej i y hej | = hej | U ,


ad

con
ei |ej i = ji , |ej i ej = I ;

i
e |ej i = ji , |ej i ej = I ,



por lo tanto
rr

U U |ej i = U |ej i = |ek i ek U |ej i = |ek i ek |ej i = |ek i jk = |ej i .



Esto significa que U U = I. J


Bo

De un modo equivalente, se puede demostrar que UU = I. Veamos:

U |ej i = |ek i ek U |ej i = |ek i ek |ej i ,



y ahora, aplicando el operador U a esta ecuacion, tenemos

UU |ej i = U |ek i ek |ej i = |ek i ek |ej i = |ej i .



Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 252
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Queda entonces demostrado demostrado que U es unitario: U U = UU = I.


on de una matriz unitaria en una base {|ej i} implica
Por otro lado, la representaci
j
Ujk = ek U |ej i ; hem | U |ej i = ej U |em i = Um



,

por lo que
j
X
jk e |ej i = ek I |ej i = ek UU |ej i = ek U |em i hem | U |ej i =

k


k

= Um Um
m

X
jk e |ej i = ek I |ej i = ek U U |ej i = ek U |em i hem | U |ej i =

k
(Ukm ) Ujm .




=
m

ar
Una vez m as, dado un operador lineal A, la representacion matricial del hermtico conjugado de ese
operador, A , es la traspuesta conjugada de la matriz que representa al operador A. En el caso de operadores
unitarios, lo cual es facilmente verificable, basta comprobar la suma de los productos de los elementos de
una columna (fila) de la matriz con los complejos conjugados de otra columna (fila) sea:

in
1. cero si las columnas (filas) son distintas.
2. uno si las columnas (filas) son iguales.

lim
Ejemplos de matrices unitarias son las llamadas matrices de rotacion. Alrededor del eje z tendremos que

cos() sen() 0
R () = sen() cos() 0 .
0 0 1

Tambien la matriz de rotaci


on de una partcula de espn
 i
re 1
2 en el espacio de estados
i
e 2 (+) cos() e 2 () sen()

rP
(1/2)
R (, , ) = i i ,
e 2 () sen() e 2 (+) cos()

claramente se cumple la regla expuesta arriba.

Autovalores y autovectores: En cuanto a los autovalores y autovectores de matrices unitarias podemos


o

ver que si |u i es un autovector, normalizado del operador U, correspondiente a un autovalor u tendremos


que la norma al cuadrado ser a igual a
ad

U |u i = u |u i h u | U U |u i = 1 = u u h u |u i = u u u = eiu ,

con u una funcion real.


Por lo cual podemos concluir que, necesariamente, los autovalores de los operadores unitarios ser an
rr

n
umeros complejos de m odulo 1. Cuando los autovalores son diferentes, digamos w 6= u, entonces esta
on implica que h w |u i = 0, con lo cual los autovectores de un operador unitarios son ortogonales.
condici
Bo

Transformaci on unitaria de operadores: Hemos visto como las transformaciones unitarias permiten
construir bases ortogonales {|ei i} para el espacio vectorial Vn partiendo de otra base {|ei i} tambien orto-
gonal. Mostraremos aqu como transforman los operadores lineales bajo transformaciones unitarias.

Definici on: Dadas dos bases ortonormales {|ei i} y {|ei i} en Vn con; |ej i = U |ej i. Un operador lineal
unitario U : Vn Vn y un operador lineal A : Vn Vn .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 253
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Definiremos al operador transformado


A : Vn Vn como aquel cuya representacion matricial en la base
|ei i = ej A |ei i. J


{|ei i} es la misma que en la base {|ei i}: ej A
A partir de esta definici
on es f
acil concluir que

|ei i = ej U AU
|ei i = ej A |ei i U AU = UAU .
= A A

j


e A

Por lo tanto, la ecuaci = UAU corresponde a la definicion de la transformacion de un operador A


on A
mediante un operador unitario U .
Es f
acil identificar las propiedades de estos operadores transformados:
El hermtico conjugado y funciones de un operador transformado:

ar
   
= UAU = U A U = (A
A ] ) ,


en particular se sigue de esta propiedad que si A = A , es hermtico, tambien lo sera A:

in
 
= A
A = A A .

lim
Del mismo modo  2   
= UAU UAU = UA2 U =(A
A ] 2) ,

con lo cual
 n 

A

donde F (A) es una funci


 n2  
= UAU UAU = UAn U =(A

on del operador A.
]
re
n)
 
,
F (A) = F A
rP
Los autovalores y autovectores de un operador transformado
E
a un autovector | i de A correspondiente a un autovalor , y sea el transformado de | i
Ser

mediante el operador unitario U. Entonces
E   E
= UAU U | i = UA | i = U | i = ,
A | i = | i A
o
ad

E E E
con lo cual es claro que es un autovector de A

con el mismo autovalor : = .

Equivalentemente podemos afirmar que los autovectores transformados de A, seran autovectores del

operador transformado A.
rr

Ejemplo Dada la matriz


1 1 0

2 2
Bo


i

i
2
A= 2 .
0

0 0 i
Esta matriz es unitaria, ya que: A = A1 .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 254
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Los autovalores de esta matriz son:



2(1+i)2 3i
  1 =

4
P () = ( i) 2 2 2(1 + i) + 2 i = 0 2 = 2(1+i)+2 3i
4
3 = i

Notemos que los valores propios est


an normalizados a la unidad
! !
2(1 + i) 2 3i 2(1 i) 2 3i
1 1 = =1
4 4
! !
2(1 + i) + 2 3i 2(1 i) + 2 3i
2 2 = =1

ar
4 4
3 3 = i(i) = 1
Estos tres autovalores generan los autovectores:

in

1

2(1 + i) 2 3i
i 6i1

1 = |u1 i = ,

lim
4 2

0

1

2(1 + i) + 2 3i
i+ 6i1

2 = |u2 i = ,

0
4


re

2

0


rP
3 = i |u3 i = 0 ,
1
Se puede demostrar que los autovectores son ortogonales:

 
1
o

hu1 |u2 i = (u1 ) u2 = 0 1 i 6i1


2 0 i+ 6i1
2
=0
0
ad


 0
hu1 |u3 i = (u1 ) u3 = 0 1 i 6i1
2 0 0 =0
1

0
rr

 
hu2 |u3 i = (u2 ) u3 = 0 1 i+ 6i1
2 0 0 =0
1
Bo

Con los autovectores normalizados construimos la matriz U, que tambien sera unitaria, y la matriz
diagonal con los autovalores.
1 1

0 2(1+i)2 3i

3+ 3 3
3
4
0
0
( ) (1i)
( ) 0
(1i) 3+1 31

U= 2(1+i)+2 3i
, = 0 ,

0 4
2 3+ 3 2 3 3
0 0 1 0 0 i

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 255
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Como dijimos con anterioridad, existe una relacion entre las matrices normales y las matrices unitarias:
una matriz A es normal, s y s
olo s, existe una matriz diagonal y una unitaria U tal que:

A = UU .

Dejamos al lector la comprobaci


on.
Esto significa que A es tambien normal, es decir

AA = A A .

El lector puede entonces demostrar que las matrices hermticas, semi-hermticas y las unitarias son
matrices normales.

ar
4.8.4. Ejercicios
1. Diagonalizar unitariamente

in

  1 1+i 2i
2 i
A= , B= 1i 5 3
i 1
2i 3 0

lim
2. Diagonalizar ortogonalmente

  3 2 4
1 3
A= , B = 2 6 2
3 1
4 2 3

3. Demuestre que la matriz 


rex x iy

rP
C=
x + iy z
es igual a C = x 1 + y 2 + z 3 . Donde las matrices i son la matrices de Pauli.

4.9. Conjunto completo de observables que conmutan


o

n n
on: Diremos que un operador A : V V es un observable si el conjunto de autovectores
 Definici
ui() de un operador hermtico A, forman una base de Vn .
ad

D D
A ui() = ai ui() ui() ui() = 1 ui() uj() = ji ,

donde el ndice indica el grado de degeneracion del autovalor i . J


rr

Un ejemplo trivial de un observable lo constituyen los proyectores, P|i = |i h| con h| i = 1.


Claramente, la ecuaci on de autovalores para un proyector obliga a que tenga dos autovalores 0 y 1. El
autovalor nulo es infinitamente degenerado y esta asociado a todos los vectores ortogonales a |i, mientras
Bo

que el autovalor 1 corresponde a un autovalor simple y esta asociado a todos los vectores colineales al mismo
vector |i. Esto es:
P|i |i = |i y P|i |i = 0 si h| i = 0 .
M un, sea un vector arbitrario |i Vn . Siempre se podra expresar como
as a
  
|i = P|i |i + I P|i |i P|i |i = P|i |i + I P|i |i ,

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 256
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

por lo tanto
  
P|i |i = P|i P|i |i + P|i P2|i |i = P|i |i = P|i P|i |i = P|i |i ,


ya que P2|i = P|i , por definici


on de proyector. Entonces, se deduce que P|i |i es un autovector de P|i

con autovalor 1. Igualmente I P|i |i es un autovector de P|i con autovalor 0, y la demostraci on es
inmediata  
P|i I P|i |i = P|i P2|i |i = 0 .


Para el caso de autoespacios correspondientes a autovalores degenerados se puede definir un observable


A de la forma X  D 
ai Pi con: Pi = () ()

ar
A= para: = 1, 2, , k .

i
i

Para los observables que conmutan se tienen los siguientes teoremas:

in
Teorema: Si dos operadores lineales A y B, operadores hermticos, conmutan, [A, B] = 0, y |i es auto-
vector de A con autovalor , entonces B |i tambien sera autovector de A con el mismo autovalor .

lim
Demostraci
on: La demostraci
on es sencilla

A |i = a |i B (A |i = |i) BA |i = A (B |i) = (B |i) J

Ahora bien, de esta situaci


on se puede distinguir un par de casos:
si el autovalor es no degenerado los autovectores asociados con este autovalor son, por definicion, coli-

es que NECESARIAMENTE |i es autovector de B.


re
neales con |i. Por lo tanto B |i, sera necesariamente colineal con |i. La conclusion a esta afirmaci
on
rP
si el autovalor se degenerado, B |i S , es decir B |i esta en el autoespacio S con lo cual S es
globalmente invariante bajo la accion de B.
Teorema: Si dos observables A y B conmutan, [A,
B] = 0, y si |1 i y |2 i son autovectores de A para
autovalores distintos, entonces el elemento de matriz 1 B |2 i = 0
o

on: Si A |1 i = 1 |1 i y A |2 i = 2 |2 i entonces
Demostraci

0 = 1 [A, B] |2 i = 1 AB BA |2 i = 1 A B |2 i 1 B (A |2 i)





ad

= 1 1 B |2 i 2 1 B |2 i = (1 2 ) 1 B |2 i 1 B |2 i = 0 . J




Teorema: Si dos observables A y B, operadores hermticos, conmutan, [A, B] = 0, los autovectores {|i i}
comunes a A y B constituyen una base ortonormal para Vn .
rr


Demostraci
on: Denotemos los autovectores de A como i() , de tal modo
Bo


A i() = i i() donde i = 1, 2, .., n kn + 1 y = 1, 2, .., kn ,

kn indica el orden de la degeneraci


on de un determinado autovalor n .
Dado que A es un observable, los i() forman una base, claramente:
D
i() j() = ji .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 257
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN



Dado que los elementos de la matriz i() B j() = ji , entonces esto quiere decir que los elementos
i()

Bj() = i() B j() seran nulos para i 6= j, pero no podemos decir nada a priori para el caso 6= y
i = j. En general, al ordenar la base

1(1) , 1(2) , 1(k ) , 2(1) , 2(2) , , 2(k ) , , 3(1) , nk (1) ,
1 2 n

para el caso que consideraremos ser a



1(1) , 1(2) , 1(3) , 2(1) , 2(2) , 3(1) , 4(1) , 4(2) , 5(1) . J


La representacion matricial de B en esa base, i() B j() , tendra la forma de una matriz diagonal a

ar
bloques 1 (1) 1 (1) 1 (1)

B1 (1) B1 (2) B1 (3) 0 0 0 0 0 0
1 (2)
B1 (1) B11 (2)(2) 1 (2)
B1 (3) 0 0 0 0 0 0

B 1 (3) B 1 (3) B 1 (3)

in
1 (1) 1 (2) 1 (3) 0 0 0 0 0 0

2 (1) 2 (1)

0 0 0 B 2 (1) B2 (2) 0 0 0 0

2 (2) 2 (2)
0 0 0 B2 (1) B2 (2) 0 0 0 0

lim

3 (1)


0 0 0 0 0 B3 (1) 0 0 0

4 (1) 4 (1)
0 0 0 0 0 0 B4 (1) B4 (2) 0

4 (2) 4 (2)

0 0 0 0 0 0 B4 (1) B4 (2) 0

5 (1)
0 0 0 0 0 0 0 0 B5 (1)

1 , 2 , y 4 (de orden 3, 2 y 2 respectivamente).


Una vez m as surgen dos casos a analizar:
re
Tal y como hemos mencionado los subespacios: E 1 , E 2 , y E 4 corresponden a los autovalores degenerados
rP
Si n es un autovalor no degenerado, entonces existe un u nico autovector asociado a este autovalor
on del autoespacio es 1 kj = 1, y no hace falta). Esto corresponde al ejemplo hipotetico
(la dimensi
anterior para los autovalores simples 3 , y 5 .
Si n es un autovalor degenerado, entonces existe un conjunto de autovectores
asociados a este autovalor
o

n (en este caso la dimensi on del autoespacio es kn ). Como los j() son autovectores de A su
representacion matricial ser
a diagonal a bloques. Ahora bien, como el autoespacio Sa es globalmente
i ()
ad



on de B y Bj() = i() B j() es hermtico, por ser B hermtico, entonces
invariante bajo la acci

B es diagonalizable dentro del bloque que la define. Es decir, se podra conseguir una base j() tal
que la representaci
on matricial de B en esa base es diagonal
D D
i() i() = j() ji ,
rr

Bj = i() B j() = i() B j() = B



j()


que no es otra cosa que los vectores j() seran autovectores de B
Bo


B j() = j() j() .

Es importante recalcar que los autovectores j() de A asociados con un autovalor degenerado NO
son necesariamente autovectores de B. S
olo que como B es hermtico puede ser diagonalizado dentro del
autoespacio.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 258
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

De ahora en
adelante
denotaremos los autovectores comunes a dos operadores A y B con distintos auto-
valores como u i|j() tal que

A u n|m() = n u n|m() y B u n|m() = m u n|m() ,
donde hemos dejado espacio para permitir la degeneracion la cual sera indicada por el ndice .
La prueba del inverso del teorema anterior es bien simple

Teorema: Si existe una base de autovectores uj() comunes a A y B, entonces A y B conmutan,
[A, B] = 0

Demostraci
on: Es claro que

ar

AB u n|m() = m A u n|m() = m n u n|m()

BA u n|m() = n B u n|m() = n m u n|m()

in
restando miembro a miembro obtenemos de manera inmediata

(AB BA) u n|m() = [A, B] u n|m() = (m n n m ) u n|m() = 0 . J

lim
Definicion: Los operadores: {A, B, C, D } constituye un conjunto completo de observables que con-
muntan si:
1. Obviamente los operadores del conjunto conmutan entre ellos:
[A, B] = [A, C] = [A, D] = [B, C] = [B, D] = [C, D] = = 0

re
2. Al especificar el conjunto de autovalores para los operadores
{n , m , k , l , }
rP
se especifica de manera unvoca un u nico autovector com un a todos estos operadores

{n , m , k , l , } u n|m|k|l () . J

Ejemplos
o

1. Considere, que el espacio de estados para un determinado sistema fsico viene expandido por una base
ortonormal {|1 i , |2 i , |3 i}. Definimos dos operadores Lz y S de la siguiente manera
ad

Lz |1 i = |1 i ; Lz |2 i = 0; Lz |3 i = |3 i
S |1 i = |3 i ; S |2 i = |2 i ; S |3 i = |1 i
En la base ortonormal {|1 i , |2 i , |3 i} las representaciones matriciales para Lz , L2z , S y S2 ser
an las
rr

siguientes


i 1 0 0
i 2 1 0 0
Lz |j i = 0 0 0 , Lz |j i = 0 0 0
Bo

0 0 1 0 0 1



i 0 0 1
i 2 1 0 0
S |j i = 0 1 0 , S |j i = 0 1 0
1 0 0 0 0 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 259
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Es claro que estas matrices son reales y simetricas y, por lo tanto, son hermticas y, al ser el espacio de
dimension finita, deben ser diagonalizables y sus autovectores formaran base para ese espacio. Por lo
tanto, Lz , L2z , S y S2 son observables. Ahora bien: Cual sera la forma mas general de una representaci
on
matricial de un operador que conmute con Lz ?
Notamos que los vectores de la base ortonormal {|1 i , |2 i , |3 i} son autovectores para Lz con au-
tovalores {1, 0, 1}, con lo cual su representacion matricial tiene que ser diagonal. Recuerde que si
dos observables A y B conmutan, [A, B] =
0, y si |1 i y |2 i son autovectores de A para autovalores
distintos, entonces el elemento de matriz 1 B |2 i = 0, con lo cual

M11


i 0 0
[M, Lz ] = 0 M |j i = 0 M22 0 .

ar
0 0 M33

Esto se desprende de manera directa de

in
0 = i [M, Lz ] |j i = i MLz Lz M |j i = (j i ) i M |j i ,




con (j i ) 6= 0 para i 6= j .

Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es

lim
L2z |1 i = |1 i ; L2z |2 i = 0; L2z |3 i = |3 i ,

con lo cual tendremos que la representacion matricial para ese operador que conmute con L2z , no es
diagonal. Esto es 1
0 N31

N1

ya que
[N, L2z ] = 0


re
i N |j i = 0 N22 0 ,
N13 0 N33
rP
0 = 1 [N, L2z ] |3 i 1 N |3 i = 1 N |3 i ,



y vale para cualquier elemento N31 (y equivalentemente para N13 ).


Adicionalmente, si ordenamos la base de autovectores de Lz , como {|1 i , |3 i , |2 i} tendremos como
representaci
on matricial diagonal a bloques, correspondiente a un autorvalor degenerado 1
o

1
N1 N31 0

|j i = N13 N22 0 .

i
N
ad

0 0 N33

on matricial, mas general, de un operador que conmute con S2 es


Finalmente, la representaci
1
P1 P21 P31

rr

[P, S2 ] = 0 i P |j i = P12 P22 P32 .



N13 P23 P33


Bo

Ahora intentaremos construir una base com un de autovectores para L2z y S. Para ello notamos que |2 i
2
es un autovector com un a Lz y S, por lo tanto existira un subespacio expandido por {|1 i , |3 i}. En
ese subespacio las respresentaciones matriciales para L2z y S, seran
   

i 2 1 0
i 0 1
Lz |j iS13 = , S |j iS13 = .
0 1 1 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 260
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Acto seguido planteamos el problema de autovalores para S, esto es


1
|q2 i = (|1 i + |3 i)

     2
0 1 q1 q1
S |qj i = j |uj i =
1 0 q2 q2 1
|q3 i = (|1 i |3 i)

2

con lo cual tendremos

Autovectores Autovalor L2z Autovalor S


|q1 i = |2 i 0 1
|q2 i = 12 (|1 i + |3 i) 1 1
|q3 i = 12 (|1 i |3 i) 1 -1

ar
Cuadro 4.1: Dado que no hay lneas repetidas L2z y S forman un CCOC.

in
2. Consideremos otro ejemplo proveniente de la Mecanica Clasica. Se trata de dos osciladores armonicos,
de igual masa, acoplados con resortes con la misma constante elastica k. La ecuaciones de movimiento
para este sistema son:

lim
x1 + kx1 k(x2 x1 )
m = 0

x2 + kx2 + k(x2 x1 )
m = 0,

d2
m dt2 + 2k
re
con lo cual, podremos expresar estas ecuaciones en forma de operadores:

k
!
x1

rP
D |xi = 0 2 = 0.
k m d 2 + 2k x2
dt

Si pensamos esta ecuacion como una ecuacion de autovalores, el autovalor es claramente = 0 y como
las masas y las constantes el asticas son iguales podemos intercambiar las partculas y la fsica (las
ecuaciones de movimiento) no cambian. Esto se puede expresar matematicamente como el operador
o

permutacion de las partculas


    1   2 
0 1 0 1 x x
ad

P= = .
1 0 1 0 x2 x1

Es inmediato comprobar que [D, P] = 0, con lo cual existira una combinacion lineal de autovectores de
D (asociados con el autovalor = 0) los cuales tambien seran autovectores de P. Para ello procedamos
rr

a calcular los autovalores y autovectores de P


   
1 1 1 1 1
P |xi = |xi = 0 1 |e1 i = ; |e2 i = .
1 2 1 2 1
Bo

F
acilmente podemos expresar el vector posicion como una combinacion lineal de estos dos autovectores
de P, esto es 1
 1 

 

  1 = 2 (x1 + x2 )
x 1 1 2 1
= +
x2 2 1 2 1
2 = 12 (x1 x2 )

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 261
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Es claro que
   
1 1 1 1
|u1 i = (x1 + x2 ) y |u2 i = (x1 x2 ) ,
2 1 2 1

son autovectores de P y D.

4.9.1. Ejercicios
Dado un observable A y un vector de estado |i general, definiremos el valor esperado de A a la cantidad
hAi = h| A |i, y la relaci
on de dispersi
on de A como

ar
D E D E

2 2 2 2
(A) = (A hAi I) = A2 hAi h| A2 |i h| A |i ,

donde I es el operador identidad. N


otese que el valor esperado es un numero que representa la dispersi
on de

in
un observable y tiene la misma estructura e interpretacion de la variancia en estadstica.
D E
2
1. Muestre que la dispersion siempre es positiva, i.e (A) > 0. Para ello:

lim


a) Inicie mostrando que para cualquier operador hermtico C se cumple C2 > 0.
b) Termine mostrando que A hAi I es un operador hermtico.
on se anula para el caso en que |i es autovector de A con autovalor hAi.
2. Muestre que la dispersi

3. Utilizando la desigualdad de Cauchy-Schwarz muestre que las relaciones de dispersion entre dos obser-
vables A y B siempre cumplen
D
(A)
2
ED
2
E 1
(B) > |h[A, B]i|
2
re con [A, B] = AB BA .
rP
4

on de incertidumbre.8
Esta es la forma general de la relaci
4. En Mec anica Cu antica se define el operador de spin como Si = ~2 i donde las i son las matrices de
Pauli y los valores de i = 1, 2, 3 representan las direcciones x, y, z, respectivamente.
o

a) Encuentre la expresi
on para el conmutador [Si , Sj ], con i, j = 1, 2, 3.
ad

b) Considere un vector de estado general |i = a |+i + b |i, donde a y b son n


umeros complejos que
cumplen con a2 + b2 = 1 y {|+i , |i} la base de autovectores de Sz . Muestre que
D ED E
2 2
(Sz ) (Sx ) > ~4 [Im(ab )]2 ,
rr

con Im() la parte imaginaria del argumento.


8 Para detalles de las implicaciones de este problema se puede consultar Dumitru, S. On the uncertainty relations and
Bo

quantum measurements: conventionalities, shortcomings, reconsideration. arXiv preprint quant-ph/0504058 (2005). Y tambi
en
Dumitru, S. A possible general approach regarding the conformability of angular observables with mathematical rules of
Quantum Mechanics. arXiv preprint quant-ph/0602147 (2006).

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 262
4.10. SISTEMAS DE ECUACIONES LINEALES

4.10. Sistemas de ecuaciones lineales


Una de las aplicaciones m
as u
tiles del algebra de matrices es la resolucion de sistemas de ecuaciones
lineales.
A11 x1 + A12 x2 + A1n xn = c1
A21 x1 + A22 x2 + A2n xn = c2
..
.
Am1 x1 + Am2 x2 + Amn xn = cm ,
Este sistema puede ser expresado de una forma mas compacta

ar
A i
i x =c

con i = 1, 2, .., n y = 1, 2, .., m ,

por lo tanto, tendremos m ecuaciones lineales para n incognitas x1 , x2 , xn . Las cantidades A i resultan

in
ser las componentes de la matriz de los coeficientes.
Si todos los ci son cero el sistema se denomina homogeneo, en caso contrario inhomogeneo. Puede resultar
que el conjunto de las incognitas {xi } represente una solucion, infinitas soluciones o que simplemente no exista
una solucion para el sistema.

lim
Este problema puede ser pensado como un problema de un operador A en el espacio vectorial de trans-
formaciones lineales L (V, W) donde dim (V) = n y dim (W) = m, con las c las componentes del vector
transformado
|ci = A |xi c = A i
i x .
El operador A aplicara todo vector de V en alg un subespacio (o todo el espacio) de W. A este subespacio

singular, entonces existe alg re


se le denomina el rango o recorrido de A y su dimension es igual al rango de la matriz A. Si A (o A) es no
un subespacio de V que es aplicado al vector cero de W, es decir, se cumple que
A |x0 i = |0i donde el conjunto de vectores {|x0 i} se le llama el espacio nulo de A.
rP
Ejemplo
2x + 3y z = 5 2 3 1 x 5
4x + 4y 3z = 3 4 4 3 y = 3 .
2x + 3y z = 10 2 3 1 z 1
o

4.10.1. Eliminaci
on de Gauss Jordan
ad

Uno de los metodos m


as utilizados es el de la eliminacion de Gauss Jordan, el cual se basa en el intercambio
de ecuaciones y la multiplicacion apropiada e inteligente por constantes y resta de ecuaciones. La idea es
construir una matriz triangular superior para poder luego despejar desde abajo.
Veamos como se aplica el metodo para resolver el sistema de ecuaciones. Primeramente escribimos el
siguiente arreglo:
rr


a 2 3 1 5
b 4 4 3 3 ,
Bo

c 2 3 1 1
entonces para eliminar x de la fila c (o la ecuacion c) sumamos la fila a con la c, a + c y esta nueva ecuaci
on
ser
a la nueva c
a 2 3 1 5
b 4 4 3 3 ,
c0 0 6 2 6

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 263
4.10. SISTEMAS DE ECUACIONES LINEALES

ahora 2a + b ser
a la nueva b
a 2 3 1 5
b0 0

2 1 7 ,
c0

0 6 2 6
finalmente 3b0 + c0
a 2 3 1 5
b0 0

2 1 7 .
c00

0 0 5 15
Este sistema es equivalente al primer sistema de ecuaciones. La solucion emerge rapidamente:
5z = 15 z = 3 , 2y z = 7 2y 3 = 7 y = 2 , 2x + 3 (2) 3 = 5 x = 1 .

ar
Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen solucion y a veces
tienen mas de una soluci
on.

in
4.10.2. El m
etodo de la matriz inversa
El analisis matricial nos puede ayudar a investigar sobre las posibles soluciones de un sistema de ecuaciones
lineales, como vimos, en notaci on de matrices el sistema se puede escribir de la manera siguiente:

lim

A11 A12 A1n x1 c1
A21 A22 A2n x2 c2
.. = .. AX = C .

.. ..
. . . .
Am1 Am2 Amn xn cm

A sera igual al n
re
Podemos considerar a cada columna de la matriz A como un vector, entonces el rango r de la matriz
umero de vectores linealmente independientes, este n
espacio vectorial que expanden estos vectores.
umero es tambien la dimensi
on del
rP
Con respecto a las posibles soluciones del sistema podemos decir:
1. Si C pertenece al rango de A y ademas r = n, entonces todos los vectores del conjunto son linealmente
independientes y el sistema tendr
a como unica solucion al conjunto {x1 , x2 , . . . xn }.
2. Si C pertenece al rango de A y ademas r < n, entonces u nicamente r vectores seran linealmente
o

independientes. Esto significa que podremos escoger los coeficientes de los n r vectores de manera
arbitraria sin dejar de satisfacer el sistema. Por tanto, existira un n
umero infinito de soluciones, que
ad

expanden un espacio vectorial de dimension n r.


3. La otra posibilidad es que el sistema no tenga solucion, en este caso C NO pertenece al rango de A.
Cuando el sistema es homogeneo, C = 0, claramente existe una solucion que viene a ser la trivial:
rr

{x1 = x2 = = xn = 0}, ademas, si r = n esta sera la u


nica solucion. Es bueno anotar que si hay menos
ecuaciones que incognitas (m < n) entonces automaticamente r < n, por lo tanto un conjunto de ecuaciones
lineales homogeneas con menos ecuaciones que incognitas siempre tiene una infinidad de soluciones.
Debemos considerar el importante caso cuando m = n, es decir, la matriz A es cuadrada y existe igual
Bo

numero de ecuaciones como de inc ognitas. Al ser cuadrada la matriz se tiene que la condicion r = n implica
que la matriz es no singular (det[A] 6= 0). El caso r < n se corresponde a que det[A] = 0.
Para resolver el sistema de ecuaciones consideremos lo siguiente: dada la matriz A, n n no singular,
entonces A tiene una matriz inversa, tal que:
AX = C X = A1 C .

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 264
4.10. SISTEMAS DE ECUACIONES LINEALES

Ejemplo Resolver el sistema

2x1 + 4x2 + 3x3 = 4


x1 2x2 2x3 = 0
3x1 + 3x2 + 2x3 = 7
Lo anterior es igual a
2 4 3 x1 4
1 2 2 x2 = 0 ,
3 3 2 x3 7

ar
al calcular la matriz inversa de A entonces resulta que

x1 2 1 2 4 2
1
x2 = 4 13 7 0 = 3 .
11

in
x3 3 18 8 7 4
Existe entonces una u on al sistema, que es: {x1 = 2, x2 = 3, x3 = 4}.
nica soluci

lim
4.10.3. Factorizaci
on LU
El metodo de la matriz inversa es relativamente simple, pero laborioso cuando se trata de resolver sistemas
de ecuaciones muy grandes. La factorizacion o descomposicion LU (Lower-Upper) es una tecnica, existen
varias de este tipo, para factorizar una matriz como el producto de una matriz triangular inferior y una
matriz triangular superior. Si A es un matriz cuadrada no singular, entonces

las matrices L y U seran u


nicas.
re
AX = C A = LU ,
rP
Este metodo es b
asicamente una version de el metodo de Gauss Jordan, pero es mas eficiente a la hora
de ser implementado en algoritmos computacionales tanto algebraicos como numericos.
Para matrices 3 3 el metodo se implementa de la siguiente manera.

1 0 0 U11 U12 U13 U11 U12 U13
A = L21 1 0 0 U22 U23 = L21 U11 L21 U12 + U22 L21 U13 + U23
o

L31 L32 1 0 0 U33 L31 U11 L31 U12 + L32 U22 L31 U13 + L32 U23 + U33
ad

las nueve inc


ognitas se obtienen igualando con las componentes conocidas de la matriz A. Con L y U
determinadas tenemos entonces que
LUX = C ,
por lo tanto, se debe realizar los c
alculos en dos partes:
rr

primero LY = C y luego UX = Y .

Ejemplo Resolver el siguiente sistema de ecuaciones:


Bo

2x1 + 4x2 + 3x3 = 4 , x1 2x2 2x3 = 0 , 3x1 + 3x2 + 2x3 = 7 .


La matriz de los coeficientes es:
2 4 3
A= 1 2 2
3 3 2

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 265
4.10. SISTEMAS DE ECUACIONES LINEALES

C
alculo de L y U

2 4 3 U11 U12 U13
1 2 2 = L21 U11 L21 U12 + U22 L21 U13 + U23
3 3 2 L31 U11 L31 U12 + L32 U22 L31 U13 + L32 U23 + U33

Con los valores de inicio: U11 = 2, U12 = 4, U13 = 3 se procede a resolver las ecuaciones:

L21 U11 = 1 L31 U11 = 3


L21 U12 + U22 = 2 L21 U13 + U23 = 2
L31 U12 + L32 U22 = 3 L31 U13 + L32 U23 + U33 = 2

ar
por lo tanto
1 0 0 2 4 3
A = LU = 1/2 1 0 0 4 7/2
3/2 9/4 1 0 0 11/8

in
Resolvemos primero LY = C, lo cual es bastante facil

1 0 0 y1 4 y1 = 4

lim
1/2 1 0 y2 = 0 y2 = 2
3/2 9/4 1 y3 7 y3 = 11

2

Con este resultado resolvemos: UX = Y, y obtenemos la solucion



2 4 3

x1

0 4 7/2 x2 = 2
0 0 11/8 x3
re 4

11/2

x1 = 2

x2 = 3
x3 = 4
rP
Con la matrices L y U se puede calcular el determinante de la matriz A de una manera mas directa, ya
que
n
Y
det |A| = det |L| det |U| = det |U| = Uii .
i=1
o

4.10.4. M
etodo de Cramer
ad

Un metodo alternativo para resolves sistemas de ecuaciones lineales es la conocida regla de Cramer. El
funcionamiento del metodo lo podemos ilustrar con un sistema de tres ecuaciones y tres incognitas:

A11 x1 + A12 x2 + A13 x1 = c1


rr

A21 x1 + A22 x2 + A23 x2 = c2


A31 x1 + A32 x2 + A33 x3 = c3 ,
Bo

Como mencionamos anteriormente, el determinate de una matriz, det(A) = |A|,



A11 A12 A13

|A| = A21 A22 A23 ,
A31 A32 A33

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 266
4.10. SISTEMAS DE ECUACIONES LINEALES

no cambia bajo la operaci


on, por ejemplo, de sumarle a la primera columna las cantidades:

A11 A12 A13 A11 + (x2 /x1 )A12 + (x3 /x1 )A13 A12 A13

|A| = A21 A22 A23 = A21 + (x2 /x1 )A22 + (x3 /x1 )A23 A22 A23
A31 A32 A33 A31 + (x2 /x1 )A32 + (x3 /x1 )A33 A32 A33

lo cual es igual a
c1 A12 A13
1
1 |1 | .

|A| = c2 A22 A23
x1
c3
x1
A32 A33
Se puede hacer lo mismo con las otras dos columnas para obtener:

ar
|1 | |2 | |3 |
x1 = , x2 = , x3 = .
|A| |A| |A|

in
Donde los determinantes, |n |, son los determinantes de Cramer:

c1 A12 A13 A11 c1 A13 A11 A12 c1

|1 | = c2 A22 A23 , |2 | = A21 c2 A23 , |3 | = A21 A22 c2 .

lim

c3 A32 A33 A31 c3 A33 A31 A32 c3

Se puede demostrar que si |A| =


6 0, entonces la solucion as obtenida es u
nica.

Ejemplo Resolver, nuevamente, el siguiente sistema de ecuaciones:

esto es:
re
2x1 + 4x2 + 3x3 = 4 , x1 2x2 2x3 = 0 , 3x1 + 3x2 + 2x3 = 7 .
rP

2 4 3 x1 4
A = XC 1 2 2 x2 = 0 |A| = 11 .
3 3 2 x3 7
Los diferentes determinantes de Cramer son:

4 4 3 2 4 3 2 4 4
o


|1 | = 0 2 2 = 22 , |2 | = 1
0 2 = 33 ,
|3 | = 1 2 0 = 44 .

7 3 2 3 7 2 3 3 7
ad

de manera que
22 33 44
x1 = = 2, x2 = = 3 , x3 = = 4.
11 11 11
rr

4.10.5. Ejercicios
1. Resuelva
Bo

2x + 3y + z = 11
x+y+z = 6
5x y + 10z = 34

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 267
4.10. SISTEMAS DE ECUACIONES LINEALES

2. Resuelva

x1 + 2x2 + 3x3 = 1
3x1 + 4x2 + 5x3 = 2
x1 + 3x2 + 4x3 = 3

3. Demuestre que el siguiente sistema solo tiene solucion si = 1 o = 2

x+y+z = 1
x + 2y + 4z =
2

ar
x + 4y + 10z =

4. Encuentre las condiciones sobre para que al resolver el sistema

in
x1 + x2 = 1
x1 x2 + 3x3 = 1
2x1 2x2 + x3 = 2

lim
a) tenga una soluci
on
b) no tenga soluci
on
c) tenga infinitas soluciones
Encuentre todas las soluciones que puedan existir.
5. Encuentre la factorizaci
on LU de
re
rP

2 3 1 3
3 6 9 1 4 3 3
A= 1 0 5 , B= .
5 3 1 1
2 2 16
3 6 3 1

Resuelva AX = C, cuando: a) C = (21 9 28)T , b) C = (21 7 22)T para la matriz A. Y cuando:


o

c) C = (4 1 8 5)T y d) C = (10 0 3 24)T para la matriz B.


ad

6. Utilizando la regla de Cramer resuelva

13x1 + 22x2 13x3 = 4


10x1 8x2 10x3 = 44
rr

9x1 18x2 9x3 = 72 .


Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 268
4.11. ALGUNOS EJEMPLOS RESUELTOS

4.11. Algunos ejemplos resueltos


1. Dados dos operadores lineales tales que:
AB = BA; A2 = I; B2 = I; y [A, B] = 2iC
a) Muestre que C2 = I y que [B, C] = 2iA.
Soluci
on:
[A, B] = AB BA = 2iC 2AB = 2iC ABAB = C2 AABB = C2 I = C2

[B, C] = i (BAB ABB) = 2iA i (BAB A) = 2iA i (BBA A) = 2iA

ar
b) Evalue [[[A, B] , [B, C]] , [A, B]].
Soluci
on:

in
[[[A, B] , [B, C]] , [A, B]] = [[2iC, 2iA] , 2iC] = 8 [[AB, iA] , AB] = 8i [(ABA AAB) , AB]
= 8i [2B, AB] = 16i (BAB ABB) = 32iA .

lim
2. Sean A y B dos operadores hermticos, con autovalores no degenerados y un operador unitario definido
como: U = A + iB. Muestre que :

a) [A, B] = 0 y A2 + B2 = I.
Solucion: Como

re
UU = U U = (A + iB) (A + iB) = (A + iB) (A + iB) (A + iB) (A iB) = (A iB) (A + iB)
BA AB = BA + AB [B, A] = [B, A] [B, A] = 0
La segunda de las afirmaciones se puede demostrar, a partir de
rP

UU = I (A + iB) (A + iB) = (A + iB) (A iB) = A2 + B2 + i (BA AB) I = A2 +B2


b) Los autovectores de A tambien lo son de B


on: Si {|ui i} son autovectores de A entonces
Soluci
o

A |ui i = i |ui i BA |ui i = i B |ui i como [B, A] = 0 , entonces AB |ui i = i B |ui i


ad

por lo tanto, B |ui i es un autovector de A. Pero la solucion para la ecuacion de autovectores


(A i I) |ui i = 0 es unica, por lo cual todos los autovectores de A son proporcionales. Esto es
B |uj i = j |uj i, con lo cual que damostrado que los autovectores de A son autovalores de B.
c) Si U |vi i = i |vi i entonces |i | = 1.
rr

Soluci on: Es claro que



j
v U U |vi i = v j I |vi i j i v j |vi i = v j I |vi i 2i = 1




Bo

3. Dada una matriz de la forma



1 0
A= 1 0 y A |vi i = i |vi i
0 0 1
con y n
umeros complejos distintos de cero. Encuentre:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 269
4.11. ALGUNOS EJEMPLOS RESUELTOS

a) las relaciones que deben cumplir y para que i sea real.


Soluci on: El Polinomio caracterstico y la condicion para que sea real sera:
p
(1 )(1 2 + 2 ) = 0 = 1 > 0 R

b) Las relaciones que deben cumplir y para que v j |vi i = ij .


Solucion: Los autovalores y autovectores para esta matriz seran



0 p
p

1 = 1 |v1 i = 0 ; 2 = 1+ |v2 i = 1 ; 3 = 1+ |v3 i = 1
1 0 0

ar
con lo cual
2
v 2 |v3 i = 0

= 1 || = ||

in
c) Suponga que A es hermtica, encuentre las relaciones que deben cumplir y .
Solucion: Si A es hermtica, entonces = , con lo cual se cumplen automaticamente ambas
aseveraciones.

lim
4. Dadas las siguientes matrices:
   
6 2 1 8
A= B=
2 9 8 11

C=

9 10
10 5 re

D=

14
2
2
11

rP
Determine cuales conmutan entre ellas y encuentre la base de autovectores comunes.
Soluci
on: Notamos que [A, B] = [A, D] = [D, B] = 0 y
     
0 2 0 8 0 2
[A, C] = , [B, C] = , [D, C] =
2 0 8 0 2 0
o

Los autovectores comunes a A, B, D, seran


 1 
ad

 
2 2
|u1 i = , |u2 i =
1 1

5. Dada la representaci
on matricial de dos operadores
rr


0 0 1 0 1 1
A= 0 1 0 y B= 1 0 1
1 0 0 1 1 0
Bo

a) Eval
ue [A, B].
Soluci
on:
0 0 0
AB = 1 0 0 = BA [A, B] = 0
0 0 0

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 270
4.11. ALGUNOS EJEMPLOS RESUELTOS

b) Muestre que A tiene por autovalores 1 = 1 y 2 = 1 con 1 un autovalor degenerado. Construya


la base de autovectores para A.
Solucion:

0 0 1 x x 0 1 x
0 1 0 y = y 0 1 0 y
1 0 0 z z 1 0 z

Entonces para

0 1
= (1 ) (1 ) = 2 1 (1 ) = 0

0 1 0

ar

1 0

con lo cual tiene dos autovalores = 1 y = 1. Para el caso de = 1 se cumple que

in

0 0 1 x x z = x
0 1 0 y = y y = y
1 0 0 z z x = z

lim
con lo cual el autovector asociado con el autovalor = 1 tendra la forma de

1
|ui1 = 0
1

Para = 1 se cumple

0 0 1

x
re

x

z=x
rP
0 1 0 y = y y=y
1 0 0 z z x=z

con lo cual hay dos vectores linealmente independientes asociados con = 1, a saber

1 0
o

|ui1a = 0 y |ui1b = y con y arbitrario


1 0
ad

otese que estos tres autovectores {|ui1a , |ui1b , |ui1 } son ortogonales entre si.
N
c) Cu
al es la representaci
on matricial de A en la base de autovectores?
Soluci
on: Diagonal de la forma
rr


1

1
u A |u1 i
u1 A |u2 i


u2 A |u3 i 1 0 0

Aij =
u2 A |u1 i
u2 A |u2 i

u A |u3 i = 0 1 0
Bo


3
u3 A |u1 i u3 A |u2 i u A |u3 i 0 0 1

ya que los autovectores forman una base ortogonal. Obviamente se cumple que
= 1
det[A] = det[A] y = 1.
Tr[A] = Tr[A]

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 271
4.11. ALGUNOS EJEMPLOS RESUELTOS

d ) A partir de los autovectores de A encuentre los autovalores y autovectores de B


Solucion: Claramente B |u1 i = |u1 i con lo cual tenemos el primer autovector de B asociado
al autovalor = 1. Para encontrar los otros autovectores tendremos

1 1 1 0
1 1 y = 0
1 1 1 0

6. Dada la siguiente matriz


2 2 2
A= 2 1 4 ,
2 4 1

ar
encuentre una matriz C que diagonalize A
Soluci
on: Primeramente procedemos a calcular los autovalores de A.

in

2 2 2
= ( 3)2 ( + 6) = 0 .

P () = 2 1 4
2 4 1

lim
Para = 6:

8 2 2 x1 x1 14x1 + 2x2 2x3 = 0
2 5 4 x2 = 6 x2 2x1 + 11x2 + 4x3 = 0
2 4 5 x3 x3 2x1 + 4x2 + 11x3 = 0

Un autovector puede ser:


1

re
|u1 i = 2 |
2
1

1

u1 i = 2
3
2
rP
Para el autovalor degenerado = 3, tenemos

1 2 2 x1 x1 4x1 + 2x2 2x3 = 0
2 4 4 x2 = 3 x2 2x1 7x2 + 4x3 = 0
2 4 4 x3 x3 2x1 + 4x2 7x3 = 0

o

En este caso podemos tomar como autovectores


ad


1 1 0 0
2 1
|u2 i = 0 | u2 i = 0 , |u3 i = 1 |
u3 i = 1
1/2 5 1/2 1 2 1
rr

Construimos la matriz C
1 2

3 5
0
2 0 1
C= 3 2
2
15 1
Bo

3 2
de manera que:

1 2 2
1 2

0

3
3 3 2 2 2 3 5 6 0 0
C1 AC = 4 4 23 1 = 0
5 5
95 2 1 0 3 0 .

9 9
2
2
2 2
9
5
9
2 4 2
9
2 4 1 3 15 1
2
0 0 3

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 272
4.11. ALGUNOS EJEMPLOS RESUELTOS

7. En Mec anica Cl asica la cantidad de momento angular viene definida como L = r p. Para pasar a
Mecanica Cuantica se asocia r y p con los operadores posicion y cantidad de movimiento los cuales, al
operar sobre la funci on de onda nos proveen
 

hr| X |i = x hr |i = x (r) hr| Px |i = i~ hr |i = i~ (r)
x x
 

hr| Y |i = y hr |i = y (r) hr| Py |i = i~ hr |i = i~ (r)
y y
 

hr| Z |i = z hr |i = z (r) hr| Pz |i = i~ hr |i = i~ (r)

ar
z z

En coordenadas cartesianas, en la representacion de coordenadas {|ri} tendremos que

hr| R |i = r (r) y hr| Px |i = i~ (r)

in
De forma que en Mec
anica Cu
antica las componentes cartesianas del operador cantidad de movimiento
angular son

lim
hr| L |i = i~ (r) (r)

     

hr| L |i = i~ y z (r) i i~ z x (r) j i~ x y (r) k
z y x z y x

re
Utilizando las definiciones anteriores muestre que el conmutador de las componentes cartesianas de la
cantidad de movimiento angular cumple con
rP
[Lx , Ly ] |i = i~Lz |i

con L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general: [Ll , Lm ] = i~lmn Ln .


Soluci
on: Dado que
o

[L1 , L2 ] |i = [Lx , Ly ] |i = (Lx Ly Ly Lx ) |i


     

= i~ y z z x z x y z (r)
ad

z y x z x z z y
         

= y z x z z x z y z x y z (r)
z x z y x z x z y z z y
rr

Con lo cual
2
    

= yz +y xy 2 z 2 zx
zx x z yx yz
Bo

   

zy z2 yx 2 zx x (r)
xz yx z zy y

 

= y x (r) .
x y

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 273
4.11. ALGUNOS EJEMPLOS RESUELTOS

8. Dados dos Operadores Vectoriales A y B que conmutan entre ellos y con L tales que

[A, B] = [A, L] = [L, B] = 0

Demuestre entonces que


[A L, B L] = i~ (A B) L

Soluci
on:

[A L, B L] = i~klm Al B m Lk == Al B m i~klm Lk = Al B m [Ll , Lm ] = Al B m Ll Lm Al B m Lm bm Ll


= Al Ll B m Lm B m Lm Al Ll

ar
9. Considere, que el espacio de estados para un determinado sistema fsico viene expandido por la base
ortonormal {|u1 i , |u2 i , |u3 i}. Definimos dos operadores Lz y S de la siguiente manera

in
Lz |u1 i = |u1 i ; Lz |u2 i = 0; Lz |u3 i = |u3 i
S |u1 i = |u3 i ; S |u2 i = |u2 i ; S |u3 i = |u1 i

lim
a) Encuentre la representaci
on matricial en la base {|u1 i , |u2 i , |u3 i} del operador: [Lz , S]
Soluci
on: La matriz sera

1


u1 Lz S SLz |u2 i u1 Lz S SLz |u3 i

u Lz S SLz |u1 i


2

2
u Lz S SLz |u1 i u2 Lz S SLz |u2 i u Lz S SLz |u3 i

con lo cual

3
u Lz S SLz |u1 i

re

u3 Lz S SLz |u2 i

3
u Lz S SLz |u3 i


rP

1





u Lz S |u1 i u1 SLz |u1 i u1 Lz S |u2 i u1 SLz |u2 i u1 Lz S |u3 i u1 SLz |u3 i



2



2

u Lz S |u1 i u2 SLz |u1 i u2 Lz S |u2 i u2 SLz |u2 i u Lz S |u3 i u2 SLz |u3 i



3



3
3
u Lz S |u1 i u3 SLz |u1 i u3 Lz S |u2 i u3 SLz |u2 i u Lz S |u3 i u SLz |u3 i
o

de donde
ad


00 00 1 (1) 0 0 2


i
u [Lz , S] |uj i =

00 00 00 = 0
0 0

rr


(1) 1 00 00 2 0 0

b) Lz , S y [Lz , S] ser
an biyectivas?
Bo

Soluci on: Por definici on S es biyectiva ya que cada vector tiene su imagen, Lz no lo
es por cuanto
el vector |u2 i no tiene imagen y,
finalmente
[Lz ,S] tampoco sera biyectiva dado que ui [Lz , S] |uj i
i
no tiene inversa ya que del det u [Lz , S] |uj i = 0
c) Encuentre la dimensi
on del Dominio, del Rango y del n
ucleo de la transformaciones Lz , S y [Lz , S]

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 274
4.11. ALGUNOS EJEMPLOS RESUELTOS

Soluci
on:
Dominio Rango N
ucleo
Lz 3 2 1
S 3 3 0
[Lz , S] 3 2 2
dado que [Lz , S] |u2 i = 0 .

on matricial para los operadores lineales de Pauli: R2 7 R2 dado que act


10. Encuentre la expresi uan
como

z |+i = |+i , z |i = |i

ar
x |+ix = |+ix , x |ix = |ix
y |+iy = |+iy , y |iy = |iy

con

in
   
1 0
|+i  , |i 
0 1

lim
1 1
|+ix = [|+i + |i] , |ix = [|+i |i]
2 2
1 1
|+iy = [|+i + i |i] , |iy = [|+i i |i]
2 2

Soluci
on: Ahora bien

x h+ |+ix = 1 x
re
h+ |ix =x h |+ix = 0 x h |ix = 1
rP
y h+ |+iy = 1 y h+ |iy =y h |+iy = 0 y h |iy = 1
n o
Es decir, los vectores {|+ix , |ix } y |+iy , |iy forman bases ortonormales, por lo que los vectores
{|+i , |i} se pueden expresar en termino de esas bases como
1 1
o

|+i = [|+ix + |ix ] |i = [|+ix |ix ]


2 2
ad

1 h i i h i
|+i = |+iy + |iy |i = |+iy |iy
2 2
As las expresiones matriciales ser
an
rr


h+| z |+i h+| z |i 1 0
i
(z )j = =
h| z |+i h| z |i 1
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 275
4.11. ALGUNOS EJEMPLOS RESUELTOS

y

h+| x |+i h+| x |i
i
(x )j =
h| x |+i h| x |i

1 1
[x h+| +x h|] x [|+ix + |ix ] [x h+| +x h|] x [|+ix |ix ]
2 2
=

1 1

[x h+| x h|] x [|+ix + |ix ] [x h+| x h|] x [|+ix |ix ]
2 2

ar
1 1
[x h+| +x h|] [|+ix |ix ] [x h+| +x h|] [|+ix + |ix ]
2 2
=

in

1 1

[x h+| x h|] [|+ix |ix ] [x h+| x h|] [|+ix + |ix ]
2 2

lim

0 1
i
(x )j =
1 0


h+| y |+i h+| y |i
i
(y )j =
h| y |+i h| y |i

re
rP
1 h i i h i
[y h+| +y h|] y |+iy + |iy [y h+| +y h|] y |+iy |iy
2 2
=
i 1
h i h i
[y h+| y h|] y |+iy + |iy [y h+| y h|] y |+iy |iy
2 2
o

1 h i i h i
[y h+| +y h|] |+iy |iy [y h+| +y h|] |+iy + |iy
ad

2 2
=
i 1
h i h i
[y h+| y h|] |+iy |iy [y h+| y h|] |+iy + |iy
2 2
rr


0 i
i
(y )j =
Bo

i 0

11. Un operador Cantidad de Movimiento Generalizado se define como aquel conjunto de operadores
hermticos que cumplen con

[Jx , Jy ] = i~Jz [Jy , Jz ] = i~Jx [Jz , Jx ] = i~Jy , es decir [Ji , Jj ] = i~ijk Jk

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 276
4.11. ALGUNOS EJEMPLOS RESUELTOS

con ijk el smbolo de Levy Civita (Los ndices repetidos NO indican suma). Adicionalmente, definimos
los siguientes operadores

J2 = J2x + J2y + J2z ; J+ = Jx + iJy J = Jx iJy

Muestre que  2
J , J+ = J2 , J = J2 , Jz = 0
    

Soluci
on:
 
Para probar esta propiedad se puede demostrar de forma generica que J2k , Jm = 0 con k, m = 1, 2, 3
x, y, z esto es

ar
 2 
Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm Jm Jk Jk = Jk Jk Jm (i~mkl Jl + Jk Jm ) Jk

con lo cual

in
 2 
Jk , Jm = Jk Jk Jm i~mkl Jl Jk Jk (i~mkn Jn + Jk Jm )
y claramente se anula por cuanto los indices no suman pero si son mudos, y mkl = mlk
 2

lim

Jk , Jm = Jk Jk Jm i~mkl Jl Jk i~mkn Jk Jn Jk Jk Jm

al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los
conmutadores son lineales entonces queda demostrado que
 2
J , J = J2x + J2y + J2z , Jx iJy = J2y , Jx + J2z , Jx i J2x , Jy i J2z , Jy = 0
          

J2 |j, mi = j (j + 1) ~2 |j, mi
re
12. Si definimos los autovectores comunes a J2 y Jz como |j, mi como

Jz |j, mi = m~ |j, mi con hj, m |j 0 , m0 i = jj 0 mm0


rP
adicionalmente tenemos que
p p
J |j, mi = ~ j(j + 1) m(m 1) |j, m 1i J+ |j, mi = ~ j(j + 1) m(m + 1) |j, m + 1i

y si suponen (es facil demostrarlo) que j m j esto quiere decir que dado el valor un j, m vara
o

entre j y j de uno en uno, esto es m = j, j + 1, j + 2, , j 2, j 1, j. Suponga ahora que


j = 21 . Encuentre:
ad

on matricial para: Jz , J , J+ , J2 , en la base de autovectores de Jz , J2 .


a) la representaci
Soluci on:
Si |j, mi son autovectores de J2 y Jz su representacion matricial sera diagonal y como m vara
rr

entre j y j con incrementos


de 1 tendremos que seran matrices 2 2. La base ortogonal de
autovectores sera 12 , 12 , 12 , 12

1 1 1 1
1 1 1 1
2 , 2 Jz 2 , 2 2 , 2 Jz 2 , 2 1 0
Bo


~


1 1 1 1
1 1 1 1 2
2 , 2 Jz 2 , 2

2 , 2 Jz 2 , 2
0 1
1 1 2 1 1



1 1 2 1
1

2, 2 J 2, 2
,
2 2 2, 2 J 3
1 0
2
~

1 1 2 1 1
1 1 2 1 1 4
2, 2 J 2, 2 J 2, 2

2, 2
0 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 277
4.11. ALGUNOS EJEMPLOS RESUELTOS

La representaci
on matricial para J , J+ obviamente no sera diagonal

1 1 1 1
1 1 1 1
2 , 2 J+ 2 , 2 2 , 2 J+ 2 , 2 0 1

~

1 1 1 1
1 1 1 1
2 , 2 J+ 2 , 2
, J+ , 0 0
2 2 2 2

1 1 1 1
1 1 1 1
2 , 2 J 2 , 2 2 , 2 J 2 , 2 0 0

~

1 1 1 1
1 1 1 1
2 , 2 J 2 , 2 2 , 2 J 2 , 2
1 0

b) Encuentre los autovalores y autovalores para Jz , J , J+ , J2 .


Soluci on:

ar

Otra vez, 12 , 12 , 12 , 12

son autovectores de J2 y Jz . En el caso de J2 con un autovalor de
3 2
4 ~ para ambos autovectores y en el caso de Jz los autovalores ser an ~2 respectivamente. Para
J , J+ no tendran autovalor distinto de cero en esta base.

in
lim
re
o rP
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 278
Captulo 5

ar
Apendice

in
lim
re
orP
ad
rr
Bo

279
A LOS CAS
5.1. INTRODUCCION

5.1. Introducci
on a los CAS
Los sistemas algebraicos computacionales o sistemas de algebra computacional (CAS: Computer Algebra
System) son sistemas o calculadoras avanzadas, que permiten realizar operaciones de manera simbolica. Esto
significa que el computador puede efectuar operaciones con ecuaciones y formulas simbolicamente, es decir,
a + b = c se interpreta como la suma de variables y no como la suma de n umeros previamente asignados.
Estos sistemas permiten operar de manera exacta con smbolos que representan objetos matem aticos
tales como:

N
umeros (Enteros, racionales, reales, complejos...)
Polin
omios, Funciones Racionales, Sistemas de Ecuaciones.

ar
Grupos, Anillos, Algebras . . .

A diferencia de los sistemas tradicionales de computacion numerica:

in
FORTRAN, Basic, C, C++, Java => Precision fija (Punto Flotante)
Otra caracterstica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento

lim
de proveer una instrucci on), es decir, trabajan de la forma:

Input : solve(problema);

Output : respuesta

Sistemas de Prop
re
Los CAS se pueden clasificar en dos grandes grupos:1

osito Especial (Creados para hacer calculos en un area especfica): FORM, GAP,
CAMAL, SHEEP, STENSOR, LiE, KANT.
rP
Sistemas de Proposito General (Especies de navajas suizas!): Axiom, Derive, Reduce, Maple, MatLab,
Mathematica, Maxima, MuPAD. Recientemente, lenguajes como Python comienzan a incorporar bi-
bliotecas que permiten generar formas de calculo simbolico2 que ofrecen una perspectiva interesante
para integrar ambientes algebr
aicos-numericos-visuales.
o

Los CAS modernos de prop osito general son ambientes completamente integrados de computacion para
la investigaci
on y la educaci
on conformados por:
ad

Interfaz gr
afica (worksheet) o ambiente interactivo:

Procesador de texto, de f
ormulas y de graficas.
rr

Con salidas en Latex, RTF, HTML, FORTRAN y C; o hyperlinks a otros documentos.


Manuales en lnea.
Bo

Enlaces a otros programas y bibliotecas

Capacidades para c
alculo numerico
Capacidades para visualizaci
on, con salidas graficas en diferentes formatos: PostScript, GIF,JPG, . . .
Pensado para usuarios no especializados en computacion

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 280
A LOS CAS
5.1. INTRODUCCION

ar
in
lim
Figura 5.1: Ventana grafica de vxMaxima

re
La principal ventaja de estos programas radica en la enorme capacidad para realizar calculos algebraicos
largos y tediosos. Por ejemplo, se puede demostrar que la funcion:
rP
 
nz x2 +y 2 +z 2
sen 2 2
y +z
f= p
x + y2 + z2
2

es soluci
on de la ecuaci
on diferencial:
o

4f 4f 4f
 2
2f

2 f
+ + + n + =0
ad

x4 y 2 x2 z 2 x2 x2 y 2
y la realizaci
on de este c
alculo le puede tomar a un PC estandar un tiempo de CPU relativamente corto:
tiempo de cpu = 1,065 seg
rr

Un ejemplo de un CAS es Maxima que basicamente consta de una hoja de trabajo (worksheet) que es
una interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos basicos de funcionamiento:
el modo texto y el modo c alculo. Maxima opera en la celda de calculos de la manera siguiente:
Bo

Input (Instrucci
on de entrada)
Output (respuesta del programa)
1 Una comparaci
on de los diferentes CAS puede verse en: https://en.wikipedia.org/wiki/List_of_computer_algebra_
systems
2 http://docs.sympy.org/

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 281

5.2. MAXIMA: SINTAXIS BASICA

Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos est
andar
y de generar gr
aficas en 2D y 3D a traves de los respectivos comandos.
La interacci
on con la hoja de trabajo se hace a traves de lo que denominamos la celda del Input, que
aparece se
nalado por un aviso de espera o PROMPT
[ -->

El c
odigo fuente de Maxima, c odigo de software libre, puede ser compilado sobre diferentes sistemas ope-
rativos: Windows, Linux, MacOS X y Android, y puede obtenerse en: http://sourceforge.net/projects/
wxmaxima o en http://andrejv.github.io/wxmaxima, con la respectiva documentacion.
Utilizaremos la version gr
afica wxMaxima para los fines pedagogicos del desarrollo de estas notas.
Tambien existe una versi on que funciona solo en modo texto para ser ejecutada en una consola o terminal.

ar
En la Figura 5.1 se puede apreciar el despliegue de una hoja de calculo con algunos instrucciones sencillas,
notemos que cada instrucci on (en azul) termina con un punto y coma, de esta manera se le dice al programa
la finalizacion del comando a ejecutar. Luego de escribir la instruccion y presionar la tecla Enter  el Output
aparecer a a continuaci
on en color negro.

in
5.2. Maxima: Sintaxis b
asica

lim
Es necesario familiarizarse con los comandos basicos del programa, para ello iremos desarrollando algunos
c
alculos sencillos a manera de conocer la filosofa de como funciona Maxima, y durante el transcurso de
este curso iremos haciendo un despliegue de las aplicaciones del programa para calculos mas especficos.
(%i1) 3!+3^5;
( %o1) 249
re
Veamos ahora la diferencia entre el igual = y los dos puntos :
rP
(%i2) a=b+c;
( %o2) c+b
(%i3) a;
o

( %o3) a
(%i4) a:b+c;
ad

( %o4) c+b
(%i5) a;
rr

( %o5) c+b

Al usar =no asignamos a la variable lo que esta del lado derecho mientras que con :si le asignamos
Bo

el objeto a la nueva variable.


Los c
alculos se pueden hacer tanto con n
umeros enteros como en Punto Flotante:
(%i6) 15+5^(50);
( %o6) 88817841970012523233890533447265640

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 282

5.2. MAXIMA: SINTAXIS BASICA

(%i7) 15.0+5^(50);

( %o7) 8,881784197001253 1034

Pero el enfasis radica en los c


alculos exactos:
(%i8) cos(%pi/12)^2 + log(2/3+5)/7;
  log 17 
2 3
( %o8) cos +
12 7
y si queremos el valor numerico podemos escribir

ar
(%i9) float(%);
( %o9) 1,180812852661949

in
Aqu hemos hecho uso de varios smbolos nuevos. Las constantes matematicas en Maxima se escriben
de la siguiente manera:

lim
La unidad imaginaria i: %i
El n
umero : %pi.
El smbolo : inf.
El n
umero e: %e.
En cuanto a los logaritmos:
ex = exp(x).
re
rP
log(x): la funci
on logaritmo en base e
log(x)/log(b) el logaritmo de x en base b.
Para las funciones trigonometricas es lo estandar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x),
sec(x), cot(x).
o

Tambien hemos utilizado % para introducir la u ltima salida en la siguiente instruccion, veamos nueva-
mente como funciona, pero ahora pondremos al final del comando el smbolo $ en lugar de ; para decirle al
ad

programa que ejecute la instruccion sin escribir la salida.


(%i10)3^12$
(%i11)%;
rr

( %o11) 531441
Bo

Veamos otro ejemplo:


(%i12)alpha;
( %o12)
(%i13)%+sqrt(beta);

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 283

5.2. MAXIMA: SINTAXIS BASICA

p
( %o13) +
(%i14)%o12+2*gamma^2;

( %o14) 2 2 +

Es importante tener cuidado a la hora de poner los parentesis en las expresiones:


(%i15)1+2*3^2;
( %o15) 19
(%i16)(1+2)*3^2;

ar
( %o16) 27

El volumen de un cilindro V = (radio)2 altura

in
(%i17)radio:5$
(%i18)altura:50$

lim
(%i19)area:%pi*radio^2;

( %o19) 25
(%i20)volumen:area*altura;
( %o20) 1250
re
Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all)
(Existen otras opciones que veremos m
as adelante). Esta es una manera de reiniciar la hoja de trabajo.
rP
(%i21)volumen;
( %o21) 1250
(%i22)kill(all);
o

( %o22) done
ad

(%i23)volumen;
( %o23) volumen

5.2.1. C
alculos elementales
rr

Se puede definir, evaluar y derivar funciones abstractas utilizando := como se muestra a continuaci
on
(%i1) f(x,y):=exp(x^2+y^2)/(x-y);
Bo


exp y 2 + x2
( %o1) f (x, y) :=
xy
(%i2) f(2,3);

( %o2) e13

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 284

5.2. MAXIMA: SINTAXIS BASICA

(%i3) %,numer;
( %o3) 442413,3920089205
(%i4) f(alpha^(1/2),beta^(1/2));

e+
( %o4)

Derivando respecto a x y y;
(%i5) diff(f(x,y),x) + diff(f(x,y),y);

ar
2 2 2 2
2 y ey +x 2 x ey +x
( %o5) +
xy xy
Aqu es bueno acotar que una expresi
on NO es una funcion:

in
(%i6) f(x):=3*sin(x+1)+2*sqrt(x);

( %o6) f (x) := 3 sin (x + 1) + 2 x

lim
(%i7) F:3*sin(x+1)+2*sqrt(x);

( %o7) 3 sin (x + 1) + 2 x
(%i8) f(8); F(8);

( %o8) 3 sin 9 + 2 2
5


( %o9) 3 sin (x + 1) + 2 x (8)
re
rP
Por lo tanto, F es u
nicamente una expresion que no puede ser evaluada como la funcion f . Pero se le
puede dar la vuelta para evaluarla con ev()
(%i10)ev(F,x=8);
5
( %o10) 3 sin 9 + 2 2
o

Consideremos los siguientes c


alculos b
asicos:
ad

(%i11)kill(all)$
(%i1) sigma(x):=2*x/sqrt(x^2+1);
rr

2x
( %o1) (x) :=
x2 + 1
La primera derivada:
Bo

(%i2) diff(sigma(x),x);

2 2 x2
( %o2) 3
x2 + 1 (x2 + 1) 2
La cuarta derivada:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 285

5.2. MAXIMA: SINTAXIS BASICA

(%i3) diff(sigma(x),x,4);

90 x 300 x3 210 x5
( %o3) 5 7 + 9
(x2 + 1) 2
(x2 + 1) 2
(x2 + 1) 2
Si queremos reutilizar la derivada para definir una nueva funcion, en este caso la funcion derivada, lo
podemos hacer utilizando dos ap ostrofos (No es la doble comilla)
(%i4) dsigma(x):= %o2;

2 2 x2
( %o4) dsigma (x) := 3
x2 + 1 (x2 + 1) 2

ar
(%i5) dsigma(2);
2
( %o5) 3

in
52
(%i6) integrate(sigma(x),x);
p
( %o6) 2 x2 + 1

lim
La misma integral, pero definida para x entre 0 y 1.
(%i7) integrate(sigma(x),x,0,1);
 
( %o7) 2 21

Lmites: re
rP
(%i8) limit(sigma(x),x,1/2);
2
( %o8)
5
(%i9) limit(sigma(x),x,inf);

( %o9) 2
o

Sumatorias:
ad

(%i10)sum(sigma(i),i,0,6);
12 10 8 6 4
( %o10) + + + + + 2
rr

37 26 17 10 5
Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4.
(%i11)taylor(sigma(x),x,1,4);
Bo

1  1  4 1  1 3 1  1  2 1 1 1
( %o11) 5 2 2 (x 1) + 3 2 2 (x 1) + 3 2 2 (x 1) + 2 2 (x 1) + 2 2 +
128 16 8 2
Al rededor de x = 0 es m
as simple todo:

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 286

5.2. MAXIMA: SINTAXIS BASICA

(%i12)taylor(sigma(x),x,0,6);
3 5
( %o12) x + (1) x3 + 2 x +
4
Y por supuesto, tambien podemos hacer una grafica de la funcion. Para ello utilizaremos el comando
wxplot2d que nos generara un gr
afico embebido dentro de la misma hoja de trabajo.
(%i13)wxplot2d(sigma(x),[x,-10,10]);

( %o13)

ar
in
lim
re
rP
Los calculos anteriores se pueden repetir para que queden de una manera mas elegante usando una
camilla, esto har
a que no se efect
ue la evaluacion de las operaciones.
(%i14)diff(sigma(x),x)=diff(sigma(x),x);
o

2 x2
 
d 2x 2
ad

( %o14) = 3
dx x2 + 1 x2 + 1 (x2 + 1) 2
(%i15)integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1);
Z 1
x  
21
rr

( %o15) 2 dx = 2
0x2 + 1
(%i16)limit(sigma(x),x,inf)=limit(sigma(x),x,inf);
Bo

 
x
( %o16) 2 lm =2
x x2 + 1
(%i17)sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6);
6
X i 12 10 8 6 4
( %o17) 2 = + + + + + 2
i=0
i2 +1 37 26 17 10 5

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 287

5.2. MAXIMA: SINTAXIS BASICA

Anteriormente mencionamos que uno de las ventajas de los programas de manipulacion simbolica es la
gran capacidad de llevar a cabo c
alculos largos y tediosos, veamos entonces como se hace para demostrar
que la funci
on antes mencionada:
(%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2);
 
n z z 2 +y 2 +x2
sin 2 2
z +y
( %o18) f (x, y, z) := p
z + y 2 + x2
2

es soluci
on de la ecuaci
on diferencial

ar
4f 4f 4f
 2
2f

2 f
+ 2 2 + 2 2 +n + 2 =0
x4 y x z x x2 y

in
(%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z,

2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2));

lim
( %o19) (( Expression too long to display! ))

Aqu Maxima no hace un despliegue en la pantalla de los calculos porque la expresion matem atica
es muy larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo m as
adelante.
Necesitamos entonces decirle al programa que la expresion anterior sea simplificada, es decir, que minimice
la expresi
on a su valor m
re
as simple. Para simplificar expresiones que contienen radicales, exponenciales o
logaritmos es conveniente utilizar el comando ratsimp. Tambien existe la opcion fullratsimp
rP
(%i20)ratsimp(%);

( %o20) 0

En la mayora de los casos Maxima no factoriza ni desarrolla automaticamente las expresiones, por
lo tanto, debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con
o

polinomios:
(%i21)kill(all)$
ad

(%i1) p:(x+2)*(x-1);

( %o1) (x 1) (x + 2)
rr

(%i2) q:(x-3)^2;
2
( %o2) (x 3)
Bo

(%i3) p-q;
2
( %o3) (x 1) (x + 2) (x 3)
(%i4) expand(p-q);

( %o4) 7 x 11

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 288

5.2. MAXIMA: SINTAXIS BASICA

(%i5) expand(p/q);

x2 x 2
( %o5) +
x2 6 x + 9 x2 6 x + 9 x2 6 x + 9
Si queremos dividir usando fracciones simples podemos hacer lo siguiente:
(%i6) partfrac(p/q,x);
7 10
( %o6) + +1
x 3 (x 3)2
Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales

ar
cuando contienen productos. Veamos:
(%i7) log(x*y);

in
( %o7) log (x y)
(%i8) sqrt(x*y);

lim
( %o8) x y
(%i9) sqrt(x^2);

( %o9) |x|
(%i10)radexpand:all$ logexpand:all$

(%i11)log(x*y); sqrt(x*y); sqrt(x^2);

( %o11)
log y + log x
re
rP

( %o12) x y
( %o13) x

Lo inverso a la expansi
on de expresiones es la factorizacion:
(%i14)factor(200);
o

( %o14) 23 52
ad

(%i15)factor(x^2+x-2);
( %o15) (x 1) (x + 2)
rr

(%i16)p:x^3-1;

( %o16) x3 1
Bo

(%i17)factor(%);

( %o17) (x 1) x2 + x + 1


La evaluaci
on de expresiones se realiza de la manera siguiente

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 289

5.2. MAXIMA: SINTAXIS BASICA

(%i18)ev(p,x=8);

( %o18) 511

O tambien
(%i19)p,x=%pi;

( %o19) 3 1
(%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t);

ar
( %o20) x 3 t3 + t2

Para finalizar con esta gua r


apida de Maxima veamos el uso de uno de los comandos mas comunes de
estos programas, y que tiene que ver con la solucion de ecuaciones.

in
(%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2;

( %o21) x3 + 2 x2 + 2 x = 2 x2

lim
(%i22)sol:solve(ecu,x);
h i
( %o22) x = 2 %i, x = 2 %i, x = 0

Recordemos que %i es la notaci on para el imaginario i.

re
Si necesitamos aislar una de las soluciones usamos el comando rhs (de right-hand side):
(%i23)rhs(part(sol,1)); rhs(part(sol,2));
rP

2 %i
( %o23)
( %o24) 2 %i

Para un sistema de ecuaciones, digamos, dos ecuaciones con dos incognitas:


(%i25)ecu1:x^2+y^2=1;
o

( %o25) y 2 + x2 = 1
ad

(%i26)ecu2:(x-2)^2+(y-1)^2=4;
2 2
( %o26) (y 1) + (x 2) = 4
rr

(%i27)solve([ecu1,ecu2],[x,y]);
  
4 3
( %o27) x = , y = , [x = 0, y = 1]
Bo

5 5
Cuando el sistema no tiene soluci
on Maxima responde de la siguiente manera
(%i28)solve([x+y=0,x+y=1],[x,y]);

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 290

5.2. MAXIMA: SINTAXIS BASICA

( %o28) [ ]

En el caso de un sistema que tiene mas incognitas que ecuaciones el programa utiliza los smbolos
%r1 , %r2 ... para indicar los par
ametros arbitrarios
(%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]);
 
%r1 + 9 3 %r1 9
( %o29) x = ,y = , z = %r1
2 2
En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es mas eficiente
desde el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones

ar
lineales.
(%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0];

( %o30) [z + y + x + w = 1, z y + x w = 2, y + x w = 0]

in
(%i31)linsolve(ecus,[x,y,z]);
 
4w 3 2w 3

lim
( %o31) x = ,y = ,z = 1 2w
2 2
En el caso de polin
omios de orden superior el resultado estara dado de forma aproximada:
(%i32)ec:x^7+x^5-x^3+x-2;

( %o32) x7 + x5 x3 + x 2
(%i33)allroots(ec); re
rP
[ x=0.766414088337633 %i+0.5507199727230275 ,
x=0.5507199727230275-0.766414088337633 %i ,
x=0.4922671445862202 %i - 0.9637112977011089 ,
x=-0.4922671445862202 %i -0.9637112977011089 ,
x=1.381985877916414 %i -0.08700867502191806 ,
x=-1.381985877916414 %i -0.08700867502191806 ,
o

x=0.9999999999999988 ]
ad

(%i34)realroots(ec);
( %o34) [x = 1]
rr

Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones
diferenciales ordinarias
Bo

(%i35)ecd:(2*x+1)*diff(y,x)+y*(x-1)=0;
 
d
( %o35) (2 x + 1) y + (x 1) y = 0
dx
(%i36)ode2(ecd,y,x);

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 291

5.2. MAXIMA: SINTAXIS BASICA

3 log(2 x+1)
x
( %o36) y = %c e 4 2

Por ser una ecuacion diferencial de primer orden debe aparecer una constante en la solucion. La constante
aqu es denotada por %c.
(%i37)ecd2:diff(y,x,2)-3*diff(y,x)+2*y=x;

d2
 
d
( %o37) y3 y + 2y = x
d x2 dx
(%i38)ode2(ecd2,y,x);
2x + 3
( %o38) y = %k1 e2 x + %k2 ex +

ar
4
Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones

in
(%i39)ic2(%o38,x=0,y=0,diff(y,x)=1);

5 e2 x 2x + 3
( %o39) y = 2 ex +
4 4

lim
Y para valores de contorno bc2
(%i40)bc2(%o38,x=0,y=0,x=1,y=0);

(3 e 5) e2 x 3 e2 5 ex 2x + 3
( %o40) y = +
4 e2 4 e 4 e2 4 e 4
re
Existe el comando desolve para resolver tambien ecuaciones o sistemas de ecuaciones diferenciales or-
dinarias lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita
rP
especificar la dependencia de las funciones con las variables independientes.
(%i41)ecd3:diff(y(x),x,2)-y(x)=2*x;

d2
( %o41) y (x) y (x) = 2 x
d x2
o

(%i42)desolve(ecd3,[y(x)]);

ex ddx y (x) x=0 + y (0) + 2 ex d
 
y (x) x=0 y (0) + 2
ad

dx
( %o42) y (x) = 2x
2 2
Si tenemos condiciones iniciales en x = 0 entonces podemos escribir:
(%i43)atvalue(y(x),x=0,1); atvalue(diff(y(x),x),x=0,2);
rr

( %o43) 1
( %o44) 2
Bo

(%i45)desolve(ecd3,[y(x)]);

5 ex 3 ex
( %o45) y (x) = 2x
2 2
Si desolve no encuentra una soluci
on, entonces devuelve false.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 292

5.2. MAXIMA: SINTAXIS BASICA

Veamos un ejemplo de un sistema de ecuaciones diferenciales


(%i46)ecd_1: diff(f(x),x)=diff(g(x),x)+sin(x);

d d
( %o46) f (x) = g (x) + sin x
dx dx
(%i47)ecd_2: diff(g(x),x,2)=diff(f(x),x)-cos(x);

d2 d
( %o47) 2
g (x) = f (x) cos x
dx dx
(%i48)atvalue(diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$

ar
(%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]);

( %o51) [f (x) = a ex + b a, g (x) = cos x + a ex + c a 1]

in
(%i52)kill(all)$
Operaciones b
asicas con matrices:
(%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]);

lim

1 2 3
( %o1) 4 5 6
7 8 9
9 8 7
( %o2) 6 5 4
3 2 1
(%i3) A+B;
re
rP

10 10 10
( %o3) 10 10 10
10 10 10
El producto ordinario de matrices:
(%i4) A.B;
o


30 24 18
ad

( %o4) 84 69 54
138 114 90
El producto elemento a elemento
(%i5) A*B;
rr


9 16 21
( %o5) 24 25 24
Bo

21 16 9
El cociente elemento a elemento
(%i6) A/B;

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 293

5.2. MAXIMA: SINTAXIS BASICA

1 1 3

9 4 7
( %o6) 2 1 3
3 2
7
3 4 9
El producto por un escalar:
(%i7) n*A;

n 2n 3n
( %o7) 4 n 5 n 6 n
7n 8n 9n
Podemos generar matrices de muchas maneras

ar
(%i8) a[i,j]:=i^2 + j^2$

(%i9) A:genmatrix(a,4,4);

in

2 5 10 17
5 8 13 20
( %o9) 10 13 18 25

lim
17 20 25 32
Tambien de manera interactiva:
(%i10)n:3$
(%i11)M:entermatrix(n,n)$

Is the matrix 1. Diagonal 2. Symmetric


Answer 1, 2, 3 or 4 : 1;
re
3. Antisymmetric 4. General
rP
Row 1 Column 1: (x+y)^n$
Row 2 Column 2: (x-y)^(n+1)$
Row 3 Column 3: (x.y)^(n-1)$
Matrix entered.

(%i12)M;
o

3
(y + x) 0 0
ad

4
( %o12) 0 (x y) 0
2
0 0 (x y)
La matriz identidad de tama
no n x n usamos el comando ident(n), como mostramos a continuaci
on
rr

(%i13)ident(4);

1 0 0 0
0 1 0 0
Bo

( %o13)
0 0 1

0
0 0 0 1

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 294

5.2. MAXIMA: SINTAXIS BASICA

5.2.2. Bibliotecas
No todos los comandos estan disponibles en la memoria cuando el programa es iniciado. Solo los coman-
dos est
andar son cargados automaticamente. Pero podemos contar con funciones adicionales para trabajar
cargando al programa los diferentes paquetes, modulos o libreras que dispone Maxima. Por ejemplo, el
paquete vect nos permite introducir vectores y operar con ellos.
El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente:
(%i1) load(vect)$

Las operaciones basicas de suma, resta, multiplicacion y multiplicacion por escalares de vectores las
podemos ver a continuacion, pero primero debemos saber como introducir los vectores al programa.

ar
Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos:
(%i2) a:[2,4,6];
( %o2) [2, 4, 6]

in
(%i3) b:[5,7,9];
( %o3) [5, 7, 9]

lim
(%i4) c:[1,3,0];
( %o4) [1, 3, 0]
(%i5) a+b+c;
( %o5) [8, 14, 15]
(%i6) 3*a+5*b-c;
re
rP
( %o6) [30, 44, 63]

Si queremos calcular el m
odulo de los vectores podemos hacerlo definiendo una funcion: la funcion m
odulo,
como mostramos a continuaci on:
(%i7) modulo(a):=sqrt(a.a);
o


( %o7) modulo(a) := a.a
ad

(%i8) modulo(a); modulo(b); modulo(c);



( %o8) 2 14
( %o9) 155
rr

( %10) 10

Para el producto escalar usamos un punto


Bo

(%i11)a.b;
( %11) 92

Mientras que para el producto vectorial debemos usar la tilde y escribir lo siguiente

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 295

5.2. MAXIMA: SINTAXIS BASICA

ar
in
lim
Figura 5.2: Curvas integrales para y 0 = x + ey

(%i12)express(a~b);
re
rP
( %o12) [6, 12, 6]
(%i13)express(b~a);

( %o13) [6, 12, 6]


o

De manera que el producto triple lo podemos calcular asi:


(%i14)c.(express(a~b));
ad

( %o14) 30

Otra librera que podemos explorar es plotdf que nos permite realizar graficos del tipo y 0 = f (x, y) y
rr

hacernos una idea de como es la soluci


on de esta ecuacion diferencial.
(%i1) load(plotdf)$
Bo

La librera plotdf nos permite estudiar los campos de direcciones y las curvas integrales a traves del
estudio de las pendientes. Veamos la siguiente ecuacion diferencial

y 0 = x + ey

su soluci
on, de manera gr
afica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 296

5.2. MAXIMA: SINTAXIS BASICA

ar
in
lim
Figura 5.3: Curva integrales para y 0 = x + ey y que pasa por el punto (2, 3)

comando. re
rP
(%i2) plotdf(-x+exp(-y));

La grafica que resulta puede verse en la Figura 5.2 y cada curva integral (curvas en rojo) se obtiene
haciendo un clicksobre un punto de la grafica, esto generara la curva integral que pasa por ese punto.
Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria
que pase por el punto especfico (2, 3). Para tal fin escribimos
o

(%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]);
ad

Y la gr
afica obtenida puede verse en la Figura 5.3.
Tambien nos podemos encontrar con que la ecuacion diferencial depende de alg
un parametro, digamos
. Por ejemplo
y 0 = x + ey
rr

y nos gustara obtener una gr un valor del parametro en partcular, digamos = 0,5. Entonces
afica para alg
podemos escribir
Bo

(%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]);

O, si queremos recorrer, en una misma figura, los diferentes valores del parametro usamos la opci
on
sliders, como se muestra a continuaci
on

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 297

5.2. MAXIMA: SINTAXIS BASICA

ar
in
lim
Figura 5.4: Curva integrales para y 0 = x + ey y para diferentes valores de .

re
(%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]);
rP
La gr
afica que se obtiene se muestra en la Figura 5.4, y como se puede ver, en la parte inferior aparece un
boton deslizante y el valor del par
ametro . Al deslizar el boton, estaremos cambiando el valor del parametro
que en este caso variara entre 3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas
integrales seleccionadas cambian.
o
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 298

5.2. MAXIMA: SINTAXIS BASICA

5.2.3. Maxima en modo texto


Es posible utilizar Maxima en un computador que funcione bajo alguno de los diferentes versiones de
sistemas operativos tipo UNIX, como por ejemplo Linux, esto lo podemos hacer cuando no queremos utilizar
el ambiente grafico. Podemos recurrir al ambiente de texto escribiendo el comando maxima en un terminal
de nuestro computador, esto har a que entremos en un ambiente de calculo que funcionara exclusivamente en
modo texto y aparecer a, luego de una bienvenida, el aviso de espera o prompt. Para finalizar una sesi
on en
Maxima se utiliza el comando quit().
Esta posibilidad que ofrece el programa es muy conveniente a la hora de realizar grandes calculos ya que
podemos dejar el proceso en modo background y utilizar el computador en otra actividad.
Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuaci on y
donde aprovecharemos de hacer un par de calculos a modo de ejemplo.

ar
Obatala%maxima
Maxima 5.36.1 http://maxima.sourceforge.net
using Lisp SBCL 1.2.10

in
Distributed under the GNU Public License. See the file COPYING.
Dedicated to the memory of William Schelter.
The function bug_report() provides bug reporting information.

lim
(%i1) integrate( tan(x), x );
(%o1) log(sec(x))
(%i2) float(sqrt(%pi));
(%o2) 1.772453850905516
(%i3) quit();

en el terminal: <, >, |.


Obatala% maxima < archimax.txt
re
Sobre UNIX podemos utilizar los archivos de entradas y salidas estandar para leer e imprimir informaci
on
rP
Con esta instrucci
on Maxima ejecutara todos los comandos que se encuentran en el archivo de texto
archimax.txt e ir
a mostrando los resultados en pantalla
En la siguiente instrucci
on Maxima ejecutara todos los comandos que se encuentran en el archivo de
texto archimax.txt pero escribir
a los resultados en el archivo de salida llamado archimax.out
o

Obatala% maxima < archimax.txt > archimax.out


ad

Tambien se puede hacer que todos los comandos del archivo sean ejecutados para luego ser enviados al
terminal pero paginados.
Obatala% maxima < archimax.txt | more
rr

Maxima puede ser detenido temporalmente con el comando Control Z de manera que para poner
procesos en background se procede de la manera usual:
Obatala% maxima < archimax.txt > archimax.out
Bo

^Z
Suspended
Obatala%> bg
[2] maxima < archimax.txt > archimax.out &

Obatala%

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 299

5.2. MAXIMA: SINTAXIS BASICA

O si lo preferimos, y de manera equivalente, podemos escribir la instruccion pero ponemos al final &

Obatala% maxima < archimax.txt > archimax.out &


[1] 5114

5.2.4. Invocando la ayuda


El ambiente wxMaxima permite acceder al manual de ayuda facilmente visible en la barra de herra-
mientas, parte superior de la ventana. Pero tambien si conocemos el comando podemos escribir, por ejemplo:
(%i1) describe(diff);

ar
0: diff (Functions and Variables for Differentiation)
1: diff <1> (Functions and Variables for Differentiation)
2: diff <2> (Functions and Variables for itensor)
Enter space-separated numbers, all or none:

in
Al seleccionar una de las opciones, por ejemplo si escribimos 1 despues de los dos puntos, aparecer
a la
descripci
on completa del comando:

lim
-- Function: diff
diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)
diff (<expr>, <x>, <n>)
diff (<expr>, <x>)
diff (<expr>)

some or all variables in <expr>. re


Returns the derivative or differential of <expr> with respect to

diff (<expr>, <x>, <n>) returns the <n>th derivative of <expr>


with respect to <x>.
rP
diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>) returns the mixed
partial derivative of <expr> with respect to <x_1>, ..., <x_m>. It
is equivalent to diff (... (diff (<expr>, <x_m>, <n_m>) ...),
<x_1>, <n_1>).
diff (<expr>, <x>) returns the first derivative of <expr> with
o

respect to the variable <x>.


diff (<expr>) returns the total differential of <expr>, that is,
ad

the sum of the derivatives of <expr> with respect to each its


variables times the differential del of each variable. No
further simplification of del is offered.
The noun form of diff is required in some contexts, such as
stating a differential equation. In these cases, diff may be
rr

quoted (as diff) to yield the noun form instead of carrying out
the differentiation.....
Bo

There are also some inexact matches for diff.


Try ?? diff to see them.

Tambien podemos utilizar:


(%i2) apropos("diff");

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 300
5.3. EJERCICIOS

[covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...]
O pedirle al programa algunos ejemplos
(%i3) example(diff);

(%i4) kill(f,g,h,x,y)
(%o4) done
(%i5) diff(sin(x)+x^3+2*x^2,x)
(%o5) cos(x)+3*x^2+4*x
(%i6) diff(sin(x)*cos(x),x)
(%o6) cos(x)^2-sin(x)^2

ar
(%i7) diff(sin(x)*cos(x),x,2)
(%o7) -4*cos(x)*sin(x)
.
.

in
.
Las ayudas completas de Maxima se pueden consultar en: http://maxima.sourceforge.net/es/

lim
5.3. Ejercicios
1. Calcule:
a) los 70 primeros decimales del numero e
b) el arco coseno hiperb
c) la expansi
olico de 1
on de sin(2 arctan(x))
re
rP
2. Para la siguiente funci
on
(x + 1)3
f (x) =
x2 1
Calcule
f (x) f (x)
a) x , x2
o

b)
Z Z 4
ad

f (x)dx , f (x)dx
2

c)
lm f (x) , lm f (x) , lm f (x)
x x x0
rr

afico de f (x) para valores de x [5, 5].


d ) Haga un gr
3. Encuentre las races de
p = x7 + x5 + 2x + x
Bo

4. Resuelva la siguiente ecuaci


on diferencial
dy(x)
x = y(x) ln(xy(x)) y(x);
dx
y haga una gr
afica del campo de direcciones que muestre algunas curvas integrales.

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 301
5.3. EJERCICIOS

5. Resuelva la siguiente ecuaci


on diferencial

d2 y(t)  dy(t) dy(t)


1 y(t)2 + y(t) = 0 , con: y(0) = 0 , = 0,1
d2 t dt dt

6. Realice los ejercicios de la secci


on 1.4 con la ayuda de la librera vect de Maxima.
7. En un archivo de texto escriba las siguientes instrucciones que tienen que ver con operaciones de
n
umeros complejos:

z_1=1+2%i;
z_2=3+4%i;

ar
z_1+z_2;
z_1*z_2;
expand(%);

in
z_1/z_2;
rectform(%);
polarform(%);

lim
guarde el archivo con el nombre pruebamax.txt y en un terminal de su computador, y en el mismo
directorio donde est
a el archivo escriba:

localhost% maxima < pruebamax.txt > pruebamax.out &

re
y verifique que en el archivo pruebamax.out se haya realizado los calculos.
o rP
ad
rr
Bo

Hern
andez & N
unez Universidad de los Andes / Universidad Industrial de Santander 302

Potrebbero piacerti anche