Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
y Geometra Multidimensional
Alvaro Cofre
Duvan Henao
ii
Indice general
1. Sistemas de ecuaciones lineales 1
1.1. El metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . 3
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Teorema de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5. La regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2. Relaciones de dependencia lineal 29
2.1. El espacio vectorial R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Dimension del espacio vectorial R
n
. . . . . . . . . . . . . . . . . . . . . 31
2.4. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . . . . . 35
2.5. Rango de matrices y dependencia lineal . . . . . . . . . . . . . . . . . . 37
2.6. Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7. Soluciones de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . 46
2.7.1. Compatibilidad para sistemas no homogeneos . . . . . . . . . . . 46
2.7.2. Sistemas homogeneos . . . . . . . . . . . . . . . . . . . . . . . . 51
2.7.3. Soluciones para sistemas arbitrarios . . . . . . . . . . . . . . . . 53
3.
Algebra de matrices 55
3.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3. Representacion matricial de un sistema de ecuaciones . . . . . . . . . . . 60
3.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . 61
4. Vectores en R
n
63
4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2. Subespacios de vectores en R
n
. . . . . . . . . . . . . . . . . . . . . . . 65
4.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4. Subespacios de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5. Distancia y Volumen en R
n
83
5.1. Metrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. Vol umenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85
6. Sistemas de coordenadas 91
6.1. Transformacion de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 95
6.3. Vol umenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97
iii
iv
INDICE GENERAL
6.4. Deformacion continua de sistemas de coordenadas . . . . . . . . . . . . 100
6.5. Construccion de sistemas ortonormales . . . . . . . . . . . . . . . . . . . 104
6.6. Distancia y Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . 105
7. Movimientos Rgidos 111
7.1. Movimientos rgidos en R
2
. . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.2. Movimientos rgidos en R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . 118
8. Problemas propuestos 125
Captulo 1
Sistemas de ecuaciones
lineales
Nota: La palabra n umero designa a un elemento de un campo K. En nuestro caso
K es el campo de los n umeros reales o bien el de los complejos.
Denicion 1.1 Llamaremos ecuacion lineal con n incognitas a una ecuacion del tipo
a
1
x
1
+a
2
x
2
+ a
n
x
n
= b (1.1)
Los n umeros a
1
, . . . , a
n
se llaman coecientes de las incognitas, al n umero b se le
llama termino libre . Diremos que la coleccion ordenada de n umeros (k
1
, k
2
, . . . , k
n
)
es una solucion de la ecuacion si
a
1
k
1
+a
2
k
2
+ +a
n
k
n
= b
Si b = 0 la ecuacion se dice homogenea .
Puesto que alguno de los coecientes a
i
en (1.1) debe ser distinto de cero, podemos
suponer que a
1
,= 0. Asignemos valores arbitrarios k
2
, k
3
, . . . , k
n
a las incognitas x
2
,
x
3
, . . . , x
n
, entonces
x
1
=
b a
2
k
2
a
3
k
3
a
n
k
n
a
1
.
Claramente, la coleccion ordenada
_
ba
2
k
2
a
n
k
n
a
1
, k
2
, k
3
, . . . , k
n
_
es una posible solu-
cion de la ecuacion. Puesto que esta es solucion independientemente de cuales son los
valores de k concluimos que (1.1) tiene innitas soluciones.
Denicion 1.2 Sean
a
1
x
1
+ +a
n
x
n
= c
1
(1.2)
b
1
x
1
+ +b
n
x
n
= c
2
(1.3)
Sean , n umeros arbitrarios. Diremos que la ecuacion
(a
1
x
1
+ +a
n
x
n
) +(b
1
x
1
+ +b
n
x
n
) = c
1
+c
2
(1.4)
es combinacion lineal de las ecuaciones (1.2) y (1.3).
1
2 CAP
ETODO DE ELIMINACI
ON DE GAUSS 3
1.1. El metodo de eliminacion de Gauss
Consideremos el sistema
a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
(1.7)
Caso 1: El coeciente de x
1
es distinto de cero en alguna de las ecuaciones. En tal
caso podemos suponer que a
11
,= 0 (si es necesario reordenamos las ecuaciones).
Caso 2: Si a
ij
= 0, j = 1, . . . , m simplemente tenemos un sistema de m ecuaciones con
n 1 incognitas.
Supongamos entonces que a
11
,= 0. Reemplacemos el sistema (1.7) por un nuevo sis-
tema equivalente, que por lo tanto tiene exactamente las mismas soluciones que (1.7).
Denotemos por EC
i
a la i-esima ecuacion del sistema (1.7). Construyamos el nuevo
sistema deniendo sus ecuaciones de la manera siguiente:
Ecuacion 1 = EC
1
Ecuacion 2 = EC
2
a
21
a
11
EC
1
Ecuacion 3 = EC
3
a
31
a
11
EC
1
.
.
.
Ecuacion m = EC
m
a
m1
a
11
EC
1
Obtenemos as un nuevo sistema equivalente a (1.7)
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
22
x
2
+ +a
2n
x
n
= b
2
a
32
x
2
+ +a
3n
x
n
= b
3
.
.
.
a
m2
x
2
+ +a
mn
x
n
= b
m
(1.8)
Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir facilmente como
combinacion lineal de las ecuaciones de (1.8), es por esto que son equivalentes.
Caso 1: El coeciente de x
2
es distinto de cero en alguna de las ecuaciones 2, 3, . . . , m.
Caso 2: Si a
2j
= 0 j = 2, 3, . . . , m, procedemos a la eliminacion de la incognita x
3
.
Supongamos entonces que a
22
,= 0, hacemos lo mismo en (1.8). Denotemos por EC
i
a la
ecuacion i-esima del sistema, y por EC
i
a la ecuacion i-esima del sistema a construir.
4 CAP
1
= EC
1
EC
2
= EC
2
EC
3
= EC
3
a
32
a
22
EC
2
EC
4
= EC
4
a
42
a
22
EC
2
.
.
.
EC
m
= EC
m
a
m2
a
22
EC
2
Obtenemos as un sistema equivalente a (1.8) (y por lo tanto equivalente a (1.7))
a
11
x
1
+a
12
x
2
+a
13
x
3
+ +a
1n
x
n
= b
1
a
22
x
2
+a
23
x
3
+ +a
2n
x
n
= b
2
a
33
x
3
+ +a
3n
x
n
= b
3
.
.
.
a
m3
x
3
+ +a
mn
x
n
= b
m
Nota: Si en alguna parte del proceso alguna ecuacion tiene todos los coecientes y el
termino libre iguales a cero, podemos suprimirla puesto que la ecuacion
0 x
1
+ 0 x
2
+ + 0 x
n
= 0
es satisfecha por cualquier n-tupla (k
1
, k
2
, . . . , k
n
).
Sin en alguna parte del proceso alguna ecuacion tiene todos los coecientes iguales a
cero y el termino libre distinto de 0 debemos concluir que el sistema es incompatible .
Supongamos que el sistema es compatible. En tal caso pueden presentarse solo dos
situaciones:
i) Despues de k 1 etapas, las incognitas x
k+1
, x
k+2
, . . . , x
n
quedan todas elimi-
nadas producto de suprimir ecuaciones del tipo 0 x
1
+ + 0 x
n
= 0. En tal
caso el sistema queda con forma trapezoidal
a
11
x
1
+a
12
x
2
+a
13
x
3
+ +a
1k
x
k
+ a
1n
x
n
= b
1
a
22
x
2
+a
23
x
3
+ +a
2k
x
k
+ +a
2n
x
n
= b
2
a
33
x
3
+ +a
3k
x
k
+ +a
3n
x
n
= b
3
.
.
.
a
(k1)
kk
x
k
+ +a
(k1)
kn
x
n
= b
(k1)
k
,
con a
11
,= 0, a
22
,= 0, , a
(k1)
kk
,= 0, donde k < m y k < n. Como a
(k1)
kk
,= 0
podemos asignar valores arbitrarios a x
k+1
, x
k+2
, . . . , x
n
en la ultima ecuacion y
despejar x
k
. Luego reemplazamos en la pen ultima ecuacion y despejamos x
k1
y as sucesivamente hasta llegar hasta x
1
. Hemos obtenido as una solucion que
depende de n (k 1) parametros arbitrarios (nadie arma que sea la unica), el
1.1. EL M
ETODO DE ELIMINACI
ON DE GAUSS 5
sistema es compatible indeterminado .
Ejemplo:
x
1
x
2
+ 2x
3
+x
4
= 1
x
1
+ 2x
2
x
3
x
4
= 0
3x
1
+ 0 x
2
+ 3x
3
+x
4
= 2
2x
1
2x
2
+ 4x
3
+ 2x
4
= 2
Eliminemos x
1
:
x
1
x
2
+ 2x
3
+x
4
= 1
3x
2
3x
3
2x
4
= 1
3x
2
3x
3
2x
4
= 1
0 x
2
+ 0 x
3
+ 0 x
4
= 0
Eliminemos x
2
:
x
1
x
2
+ 2x
3
x
4
= 1
3x
2
3x
3
2x
4
= 1
0 x
3
+ 0 x
4
= 0
Tenemos k = 3. Tenemos una solucion que depende de 4 (3 1) parametros
arbitrarios. En la segunda ecuacion sea x
3
= , x
4
= entonces x
2
=
1
3
[3+2
1]. Reemplazando en la primera se tiene
x
1
=
1
3
[3 + 2 1] 2 + + 1 = +
5
3
+
2
3
Obtenemos as una solucion
_
+
5
3
+
2
3
, +
2
3
1
3
, ,
donde y son
n umeros arbitrarios. Tenemos entonces innitas soluciones, una para cada par de
valores de y .
ii) Si k = n el sistema tiene forma triangular
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
(n1)
nn
x
n
= b
(n1)
n
Es claro que en este caso el sistema tiene exactamente una solucion puesto que la
ultima ecuacion determina el valor de x
n
en forma unica y la pen ultima determina
el valor de x
n1
en forma unica, etc.
Ejemplo:
x
1
+x
2
+x
3
= 0
2x
1
+ 2x
2
x
3
= 1
x
1
+x
2
3x
3
= 1
6 CAP
ETODO DE ELIMINACI
ON DE GAUSS 7
Eliminando x
2
:
_
_
1 2 5 9
0 3 2 11
0 0 8 8
_
_
luego x
1
= 2, x
2
= 3, x
3
= 1.
Ejemplo: Resolver el sistema
_
_
_
_
1 5 8 1 3
3 1 3 5 1
1 0 7 2 5
0 11 20 9 2
_
_
_
_
Eliminamos x
1
:
_
_
_
_
1 5 8 1 3
0 16 21 8 8
0 5 1 1 8
0 11 20 9 2
_
_
_
_
Antes de eliminar x
2
, restemos la segunda ecuacion a la cuarta
_
_
_
_
1 5 8 1 3
0 16 21 8 8
0 5 1 1 8
0 5 1 1 10
_
_
_
_
Podemos ver de inmediato que el sistema es incompatible.
Ejemplo: Resolver el sistema
_
_
4 1 3 1 0
2 3 1 5 0
1 2 2 3 0
_
_
Puesto que el sistema es homogeneo, omitimos la columna de los terminos libres y
permutamos la primera y la tercera ecuacion:
_
_
1 2 2 3
2 3 1 5
4 1 3 1
_
_
_
_
1 2 2 3
0 7 5 11
0 9 5 13
_
_
_
_
1 2 2 3
0 7 5 11
0 0
10
7
8
7
_
_
Tomemos x
4
= arbitrario entonces x
3
=
4
5
luego
7x
2
+ 4 11 = 0 x
2
=
y
x
1
= 2 +
8
5
3 =
3
5
8 CAP
i
2
i
n
dos permutaciones de M, sea A el cuadro
_
i
1
i
2
i
n
i
1
i
2
i
n
_
(1.9)
Podemos interpretar el cuadro de la siguiente manera: la primera la es el dominio
M de una funcion f : M M y la segunda la es su recorrido de modo tal que
f(i
j
) =
i
j
, j = 1, 2, . . . , n. A la inversa, cada funcion f : M M que sea 1-1 y sobre
puede ser representada por uno de estos cuadros. Es claro que podemos identicar al
conjunto de estos cuadros con el de las sustituciones de grado n; tambien es claro que
cada sustitucion admite diversas representaciones, por ejemplo
_
1 2 3
3 2 1
_
,
_
3 1 2
1 3 2
_
representan la misma sustitucion de grado 3. En general, lo que dene a (1.9) es la
asignacion f(i
j
) =
i
j
luego siempre es posible obtener, mediante trasposiciones de
columnas, una representacion de la forma
_
1 2 3 n
1
2
3
n
_
(1.10)
Lo que no se puede hacer es intercambiar el orden de las dos las porque ellas juegan
distintos papeles, as
_
2 1 4 3
4 3 1 2
_
y
_
4 3 1 2
2 1 4 3
_
son distintas sustituciones de grado 4, en la primera f(2) = 4 en tanto que en la se-
gunda f(2) = 3. De (1.10) es claro que hay n! sustituciones de grado n.
Volvamos a (1.9) y consideremos la paridad de ambas las. Cualquier trasposicion
de dos columnas de (1.9) hace cambiar solidariamente la paridad de ambas las, si
ellas tienen la misma paridad en una representacion ellas tendran la misma paridad
en cualquier otra, analogamente para el caso de paridad opuesta. Se concluye que el
que ambas las tengan la misma paridad o paridad opuesta no depende de la repre-
sentacion de la sustitucion luego podemos denir
Denicion 1.15 Diremos que una sustitucion de grado n es par si en alguna repre-
sentacion ambas las tienen la misma paridad y diremos que es impar si en alguna
representacion ambas tienen paridad opuesta.
1.2. DETERMINANTES 11
Nota: La sustitucion identidad
_
1 2 3 n
1 2 3 n
_
se considera par.
De (1.10) se concluye que hay
n!
2
sustituciones pares y
n!
2
sustituciones impares (n 2).
Tambien es claro que si una sustitucion de grado n es par la suma del n umero de
inversiones de ambas las es par y si es impar dica suma tambien es impar. Se concluye
que para juzgar la paridad de una sustitucion de grado n es conveniente favorecer la
representacion
_
1 2 3 n
1
2
3
n
_
.
Puesto que la primera la tiene 0 inversiones, la paridad de la sustitucion esta deter-
minada por el n umero de inversiones de la permutacion
1
2
n
.
Ejemplo:
_
3 1 4 5 2
2 5 4 3 1
_
es la misma sustitucion de grado 5 que
_
1 2 3 4 5
5 1 2 4 3
_
.
Puesto que la permutaci on 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitu-
cion dada es impar.
Estamos listos para introducir el concepto de determinante . Sea
(a
ij
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
una matriz cuadrada de orden n. Consideremos todos los productos posibles de n
elementos de (a
ij
) donde cada producto contiene exactamente un elemento de cada
la y uno de cada columna, esto es, todos los productos de la forma
a
1
1
a
2
2
a
n
n
(1.11)
donde
1
2
n
es una permutacion de los ndices 1,2,. . . , n. Puesto que para formar
(1.11) podemos elegir primero un elemento de la primera la de (a
ij
), a saber a
1
1
,
luego uno de la segunda la, a saber a
2
2
(donde a
2
2
no puede estar en la columna
1
, esto es,
1
,=
2
), luego uno de la tercera la a saber a
3
3
(donde a
3
3
no puede
estar en las columnas
1
o
2
, esto es
1
,=
2
,=
3
) y as continuamos hasta la la
n, podemos concluir que hay n! de estos productos ya que en (1.11) los ndices la
siempre pueden escribirse en el orden natural.
Cada uno de los productos (1.11) tiene naturalmente un signo. Si la sustitucion
_
1 2 3 n
1
2
3
n
_
es par le mantenemos dicho signo, si es impar lo multiplicamos por -1.
A la suma algebraica de estos n! productos de la forma (1.11) con los signos adju-
dicados mediante la regla recien enunciada lo llamaremos determinante de orden n
correspondiente a la matriz (a
ij
). Si n = 1 diremos que a
11
es el determinante de
12 CAP
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
Ejemplo: Sea
(a
ij
) =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
Hay 6 productos de la forma (1.11)
a
1
1
a
2
2
a
3
3
donde debemos rellenar
1
,
2
,
3
con todas las permutaciones posibles de los ndices
1,2,3. Los 6 productos posibles son
a
11
a
22
a
33
a
12
a
23
a
31
a
13
a
21
a
32
correspondientes a las permutaciones pares 1 2 3, 2 3 1, 3 1 2, ellos
mantienen su signo. Los otros 3 son
a
12
a
21
a
33
a
11
a
23
a
32
a
13
a
22
a
31
correspondientes a las permutaciones impares 2 1 3, 1 3 2, 3 2 1,
ellos deben ser multiplicados por -1. Luego
det(a
ij
) = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
12
a
21
a
33
a
11
a
23
a
32
a
13
a
22
a
31
1.3. Propiedades del determinante
Denicion 1.16 Sea (a
ij
) una matriz cuadrada de orden n. A la matriz cuadrada
de orden n (b
ij
), donde b
ij
= a
ji
i = 1, 2, . . . , n, j = 1, 2, . . . , n la llamaremos la
traspuesta de (a
ij
), se anota
(b
ij
) = (a
ij
)
t
Es claro que (b
ij
) se obtiene de (a
ij
) poniendo las las de a
ij
como columnas de b
ij
.
Ejemplo:
(a
ij
) =
_
_
1 3 5
2 1 4
1 1 1
_
_
(a
ij
)
t
=
_
_
1 2 1
3 1 1
5 4 1
_
_
En general si
(a
ij
) =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
(a
ij
)
t
=
_
_
_
_
_
a
11
a
21
a
n1
a
12
a
22
a
n2
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
a
nn
_
_
_
_
_
1.3. PROPIEDADES DEL DETERMINANTE 13
Nota: Cada producto a
1
1
a
2
2
a
n
n
se llama un termino del determinante.
Propiedad 1: det(a
ij
) = det(a
ij
)
t
Es evidente que ambos determinantes tienen los mismos terminos, hay que demostrar
que el mismo termino tiene el mismo signo en det(a
ij
) y en det(a
ij
)
t
. Sea
a
1
1
a
2
2
a
n
n
un termino de det(a
ij
). Si llamamos (b
ij
) = (a
ij
)
t
tal termino es en det(b
ij
)
b
1
1
b
2
2
b
n
n
.
Si reordenaramos los factores de modo que el producto quede en la forma canonica
b
1
1
b
2
2
b
n
n
esto sera lo mismo que llevar la sustitucion
_
1
2
n
1 2 n
_
a la forma
_
1 2 3 n
1
2
3
n
_
.
Pero esta ultima tiene la misma paridad que
_
1
2
n
1 2 n
_
la cual a su vez
tiene la misma paridad que
_
1 2 3 n
1
2
3
n
_
(la suma del n umero de in-
versiones es la misma).
Se concluye que a
1
1
a
2
2
a
n
n
tiene el mismo signo considerado como termino de
det(b
ij
).
De la propiedad 1 se deduce que cualquier armacion sobre las las del determinante
es validad para sus columnas y viceversa, por esta razon las propiedades que siguen
solo se demostraran para las las del determinante.
Propiedad 2: Si para alg un i, 1 i n, a
ij
= 0 j = 1, 2, . . . , n entonces
det(a
ij
) = 0.
En efecto, cada termino contiene un factor de la i-esima la (denicion de determi-
nante) luego todos los terminos son iguales a cero.
Propiedad 3: Si un determinante se obtiene de otro permutando dos las todos los
terminos del primer determinante seran terminos del segundo pero con signos contra-
rios, es decir, al permutar dos las el determinante solo cambia de signo.
Supongamos que permutamos las las i y j, i < j. Sea (b
ij
) la matriz que se obtiene
al permutar las las.
Consideremos un termino cualquiera del determinante original,
a
1
1
a
2
2
a
i
i
a
j
j
a
n
n
y su signo esta determinado por la paridad de
_
1 2 i j n
1
2
i
j
n
_
14 CAP
1
2
i
j
n
_
Puesto que 1 2 j i n se obtiene de 1 2 i j n mediante una trasposi-
cion, ambas permutaciones tienen paridad contraria y por consiguiente ambas sustitu-
ciones tienen paridad contraria.
Se concluye que a
1
1
a
2
2
a
n
n
aparece en el nuevo determinante con signo opuesto
al que tena en el determinante original.
Propiedad 4: Un determinante con dos las iguales es igual a cero.
Supongamos que det(a
ij
) = d y supongamos que las las i, j son iguales. Entonces al
intercambiar las las i, j obtenemos el mismo determinante, pero por la propiedad 3,
obtenemos el determinante con signo opuesto luego d = d d = 0.
Propiedad 5: Si se multiplican todos los elementos de una la del determinante por
un n umero k, el determinante queda multiplicado por k.
Supongamos que multiplicamos todos los elementos de la la i por k. Por la denicion
de determinante cada termino queda multiplicado por k.
Nota: El factor com un de todos los elementos de una la puede ser extrado como
un factor del determinante.
Ejemplo:
2 4 6
a b c
d e f
= 2
1 2 3
a b c
d e f
3 3 3
a b c
d e f
1 + 2 2 + 1 0 + 3
a b c
d e f
1 2 0
a b c
d e f
2 1 3
a b c
d e f
r=1
k
r
a
rj
+
n
r=i+1
k
r
a
rj
j = 1, 2, . . . , n
Ejemplo: Consideremos el determinante
a
1
a
2
a
3
b
1
b
2
b
3
a
1
+ 2b
1
a
2
+ 2b
2
a
3
+ 2b
3
r=1
b
r
a
rj
j = 1, 2, 3.
Nota: Es posible que algunos de los k
r
sean iguales a cero. En tal caso la la i es
combinacion lineal de algunas de las restantes las pero con la argucia de tomar los
restantes k
r
como iguales a cero podemos ngir que es combinacion lineal de todas
las las. En el caso en que todos los k
r
menos uno sean iguales a cero, por ejemplo
k
j
,= 0, obtenemos que la la i, i ,= j es combinacion lineal de la la j, esto es, la la
i es proporcional a la la j. Se concluye que la proporcionalidad se puede considerar
como un caso particular de combinacion lineal.
Propiedad 8: Si una de las las del determinante es combinacion lineal de las demas,
el determinante es igual a cero.
Supongamos que la i-esima la es combinacion lineal de las demas las. Descomponga-
mos el determinante en una suma de determinantes cuyas las son todas iguales a las
del determinante original salvo la i-esima, tal como lo permite la propiedad 7. Cada
uno de estos, o bien tiene una la de ceros, o bien tiene dos las proporcionales, en
ambos casos el sumando en cuestion es igual a cero.
16 CAP
am+bp an +bq
cm+dp cn +dq
usando la propiedad 7.
=
am an
am+dp cn +dq
bp bq
cm+dp cn +dq
am an
cm cn
am an
dp dq
bp bq
cm cn
bp bq
dp dq
= 0 +ad
m n
p q
+bc
p q
m n
+ 0 usando la propiedad 3
= ad
p q
m n
+bc
p q
m n
= (bc ad)
p q
m n
Ejemplo: Calcule
=
2 0 6 0 4
5 3 2 2 7
2 5 7 5 5
2 0 9 2 7
7 8 4 2 1
Por la propiedad 5
= 2
1 0 3 0 2
5 3 2 2 7
2 5 7 5 5
2 0 9 2 7
7 8 4 2 1
,
aplicando la propiedad 9 las las 2, 3, 4, 5 tenemos:
= 2
1 0 3 0 2
0 3 13 2 3
0 5 1 5 1
0 0 3 2 3
0 8 17 2 13
2
3
4
5
_
(el conjunto M de smbolos es 2, 3, 4, 5) puesto que 1 no forma ninguna inversion con
los restantes smbolos. Se concluye que
= 2
3 13 2 3
5 1 5 1
0 3 2 3
8 17 2 13
= 2
3 13 2 3
5 1 5 1
0 3 2 3
0 5 5 11
=
2
15
15 65 10 15
15 3 15 3
0 3 2 3
0 5 5 11
=
2
15
15 65 10 15
0 68 5 18
0 3 2 3
0 5 5 11
= 2
68 5 18
3 2 3
5 5 11
= 2
63 5 18
1 2 3
0 5 11
= 2
1 2 3
63 5 18
0 5 11
= 2
1 2 3
0 121 171
0 5 11
= 2
121 171
5 11
= 2
1 93
5 11
= 2
1 93
0 476
= 2 476 = 952
Ejemplo: Encuentre las races de
1 1 2 3
1 2 x
2
2 3
2 3 1 5
2 3 1 9 x
2
= 0
Para x = 1 y para x = 1 las dos primeras las quedan iguales luego el polinomio es
divisible por (x 1)(x + 1). Analogamente para las las 3 y 4 con x = 2. Luego el
determinante (que es un polinomio de grado 4) es de la forma c(x
2
4)(x
2
1), nos
18 CAP
1 1 2 3
1 2 2 3
2 3 1 5
2 3 1 9
1 1 2 3
0 1 0 0
2 3 1 5
0 0 0 4
1 1 2
0 1 0
2 3 1
= 4
1 1 2
0 1 0
0 1 3
= 4
1 0
1 3
luego c = 3.
Ejemplo: Calcule el determinante de la matriz de n n dada por
a
ij
=
_
a si i ,= j
x si i = j
Sumando a la primera columna todas las demas queda el siguiente determinante:
a
i1
= x + (n 1)a , i = 1, 2, . . . , n
a
1j
= a , j = 2, 3, . . . , n
a
ij
= a , i ,= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
a
ii
= x , i = 2, 3, . . . , n
Luego el determinante es igual a [x+(n1)a], donde es el determinante dado por
a
i1
= 1 , i = 1, 2, . . . , n
a
1j
= a , j = 2, 3, . . . , n
a
ij
= a , i ,= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
a
ii
= x , i = 2, 3, . . . , n
Restemos la primera la a todas las demas las, aplicamos la misma argumentacion
que en ejercicios anteriores y tenemos que el determinante pedido es [x + (n 1)a]d
donde d es un determinante de orden (n 1) dado por
a
ij
=
_
0 i ,= j
x a i = j, i = 2, 3, . . . , n
El unico termino distinto de cero de dicho determinante es (x a)(x a) (x a)
(n 1 veces) y su signo esta dado por
_
2 3 n
2 3 n
_
luego el determinante pedido vale [x + (n 1)a](x a)
n1
.
Ejemplo: Calcule el determinante de Vandermonde
=
1 1 1
a
1
a
2
a
n
a
2
1
a
2
2
a
2
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
1
a
n1
2
a
n1
n
1 1 1 1
0 a
2
a
1
a
3
1 a
n
a
1
0 a
2
(a
2
a
1
) a
3
(a
3
a
1
) a
n
(a
n
a
1
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
n2
2
(a
2
a
1
) a
n2
3
(a
3
a
1
) a
n2
n
(a
n
a
1
)
= (a
2
a
1
)(a
3
a
1
) (a
n
a
1
)d
donde d es un determinante de Vandermonde de orden n 1.
Por demostrar: El determinante de Vandermonde es igual al producto de todas las
diferencias posibles a
i
a
j
, 1 j < i n.
La armacion es verdadera para n = 2 y acabamos de demostrar que si es valida para
n 1 tambien es valida para n.
1.4. Teorema de Laplace
Puesto que es difcil calcular un determinante usando directamente la denicion, bus-
caremos un teorema que reduzca el calculo de un determinante de orden n a uno de
n 1, lo cual permite, en principio, remontarse al calculo de determinantes de orden
2.
Denicion 1.18 Sea d un determinante de orden n, sea k entero, 1 k n 1. En
la matriz (a
ij
) elegimos arbitrariamente k las y k columnas. Consideremos la matriz
formada por los elementos que estan en las intersecciones de las k las y k columnas
elegidas. Al determinante de orden k de esta matriz se le llama menor de orden k
del determinante d (es el determinante que se obtiene de borrar n k las y n k
columnas de d).
Ejemplo: Sea
d =
a
11
a
12
a
13
a
14
a
21
a
22
a
23
a
24
a
31
a
32
a
33
a
34
a
41
a
42
a
43
a
44
a
22
a
24
a
32
a
34
.
Si borramos la la 1 y la columna 1 obtenemos el menor de orden 3 dado por
a
22
a
23
a
24
a
32
a
33
a
34
a
42
a
43
a
44
20 CAP
a
22
a
24
a
32
a
34
es
a
11
a
13
a
41
a
43
.
Denicion 1.20 Supongamos que el menor M de orden k se encuentra en las las
i
1
, i
2
, . . . , i
k
y en las columnas j
1
, j
2
, . . . , j
k
, sea M
su menor complementario. Si
S
M
= i
1
+i
2
+ +i
k
+j
1
+j
2
+ +j
k
,
llamaremos adjunto de M a (1)
S
M
M
.
En el ejemplo previo, el adjunto de
a
22
a
24
a
32
a
34
es
(1)
2+3+2+4
a
11
a
13
a
41
a
43
). Entonces (1)
S
M
AB es un
termino de d (con el signo que le corresponde en d)
Demostracion: Supongamos que M
1
2
3
k
_
,
sea l su n umero de inversiones. Un termino cualquiera de M
es
B = a
(k+1)
k+1
a
(k+2)
k+2
a
n
n
,
su signo en M
k+1
k+2
n
_
,
sea l
su n umero de inversiones.
AB tiene exactamente un factor de cada la y cada columna de d luego es un termino
de d. El signo de AB en el producto MM
, su signo en
d esta determinado por la sustitucion
_
1 2 k k + 1 k + 2 n
1
2
k
k+1
k+2
n
_
.
Pero como los no pueden formar inversion con los , ella tiene l +l
inversiones, su
signo en d tambien esta determinado por (1)
l+l
.
1.4. TEOREMA DE LAPLACE 21
Supongamos ahora que M
es igual a
(1)
i
1
+i
2
++i
k
+j
1
+j
2
++j
k
k(k+1)
d ,
pero k(k + 1) es par luego d
= (1)
S
M
d.
Puesto que en el proceso indicado no cambian ni las las ni las columnas que constitu-
yen a M
son
terminos de d si los multiplicamos por (1)
S
M
puesto que (1)
S
M
d
= (1)
2S
M
d = d
luego (1)
S
M
AB es un termino de d.
El lema nos permite reducir el calculo de un determinante de orden n a un determi-
nante de orden n 1.
Notacion: Sea M = [a
ij
[ un menor de 1 1 del determinante d. Su menor comple-
mentario es de orden (n 1) y lo designaremos por M
ij
. Designaremos por A
ij
=
(1)
i+j
M
ij
al adjunto de M.
Teorema 1.22 Sea i una la cualquiera de d. Entonces
d =
n
j=1
a
ij
A
ij
Demostracion: Por el lema, cada termino del desarrollo a
ij
A
ij
es un termino de d
con el signo que le corresponde en d. Sea A un termino del desarrollo a
ir
A
ir
, si j ,= r,
A no puede ser un termino del desarrollo a
ij
A
ij
puesto que A contiene al elemento a
ir
de la i-esima la en tanto que a
ij
A
ij
contiene al elemento a
ij
de la i-esima la, j ,= r.
El desarrollo a
ij
A
ij
contiene (n1)! terminos de d con el signo que les corresponde en
d,
n
j=1
a
ij
A
ij
contiene n(n1)! terminos distintos de d con el signo que les corresponde
en d y puesto que d consta de n! terminos se tiene que
n
j=1
a
ij
A
ij
es d.
22 CAP
j=1
a
ij
A
ij
es el desarrollo del determinante por los adjuntos
de la i-esima la.
Es obvio que tambien es posible desarrollar el determinante por los adjuntos de una
columna cualquiera.
Ejemplo: Desarrollar
d =
3 1 1 2
5 1 3 4
2 0 1 1
1 5 3 3
1 1 2
1 3 4
5 3 3
+ (1)
3+2
0
3 1 2
5 3 4
1 3 3
+(1)
3+3
1
3 1 2
5 1 4
1 5 3
+ (1)
3+4
(1)
3 1 1
5 1 3
1 5 3
Del ejemplo se concluye que mientras mas ceros tiene la la, mas facil es el desarrollo.
As, usando sistematicamente las propiedades del determinante es posible transfor-
marlo de modo que quede una la que tiene un 1 y (n 1) ceros, as el calculo de un
determinante de orden n se reduce al calculo de un solo determinante de orden n 1.
Ejemplo: Sea
d =
2 5 0 1 3
1 0 3 7 2
3 1 0 5 5
2 6 4 1 2
0 3 1 2 3
2 5 1 3
1 9 13 7
3 1 5 5
2 18 7 10
13 25 17
26 34 26
36 33 24
13 25 17
0 16 8
36 33 24
= 8
13 25 17
0 2 1
36 33 24
= 8
_
13
2 1
33 24
+ 36
25 17
2 1
_
= 813(48 + 33) + 36(25 34) = 8195 324 = 8 129 = 1032
Corolario 1.23 Sea i ,= j, entonces
n
k=1
a
ik
A
jk
= 0.
Demostracion:
n
k=1
a
ij
A
jk
puede interpretarse como el desarrollo por los adjuntos
de la j-esima la de un determinante igual al original salvo que la j-esima la es
b
jk
= a
ik
k = 1, 2, . . . , n. Pero este es un determinante cuya i-esima la y j-esima la
son iguales luego vale cero.
Denicion 1.24 Una matriz
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
se dice triangular superior si a
ij
= 0 siempre que i > j, o bien triangular inferior si
a
ij
= 0 siempre que i < j.
Teorema 1.25 El determinante de una matriz triangular (superior o inferior) es igual
al producto de los elementos en su diagonal.
Demostracion: Claramente el teorema es cierto si n = 1. Sea d el determinante de
la matriz (a
ij
). Supongamos que la matriz es triangular superior y desarrollemos por
los adjuntos de la primera columna, obtenemos
d =
n
i=1
a
i1
A
i1
= a
11
A
11
,
pero A
11
es el determinante de la matriz que resulta de eliminar la primera la y
la primera columna, que es tambien triangular superior. Luego si suponemos cierto el
teorema para matrices de n1 las y n1 columnas tenemos que A
11
= a
22
a
33
a
nn
,
de donde se tiene que el teorema es cierto por induccion.
Si la matriz es triangular inferior, su traspuesta es triangular superior y los elementos
de su diagonal permanecen invariantes.
24 CAP
4 1 2 2 1
0 3 0 1 5
2 3 1 3 1
1 1 3 1 0
0 4 0 2 5
4 2
0 0
3 3 1
1 1 0
4 2 5
+ (1)
1+3+1+3
4 2
2 1
3 1 5
1 1 0
4 2 5
+(1)
1+4+1+3
4 2
1 3
3 1 5
3 3 1
4 2 5
+ (1)
1+5+1+3
4 2
0 0
3 1 5
3 3 1
1 1 0
+(1)
2+3+1+3
0 0
2 1
1 2 1
1 1 0
4 2 5
+ (1)
2+4+1+3
0 0
1 3
1 2 1
3 3 1
4 2 5
+(1)
2+5+1+3
0 0
0 0
1 2 1
3 3 1
1 1 0
+ (1)
3+4+1+3
2 1
1 3
1 2 1
3 1 5
4 2 5
+(1)
3+5+1+3
2 1
0 0
1 2 1
3 1 5
1 1 0
+ (1)
4+5+1+3
1 3
0 0
1 2 1
3 1 5
3 3 1
Demostracion: Sean i
1
, i
2
, . . . , i
k
las las escogidas, sea A = a
1
1
a
2
2
a
n
n
un
termino cualquiera del determinante d. En A hay exactamente un elemento de cada
una de las las i
1
, i
2
, . . . , i
k
. Supongamos que ellos estan en las columnas
i
1
,
i
2
, . . . ,
i
k
. Consideremos el producto B = a
i
1
i
1
a
i
2
i
2
a
i
k
i
k
. B contiene exactamente un
elemento de cada la y un elemento de cada columna del menor M formado por las las
i
1
, i
2
, . . . , i
k
y las columnas
i
1
,
i
2
, . . . ,
i
k
. El producto de los restantes factores de
A contiene exactamente un elemento de cada la y un elemento de cada columna del
menor complementario M
1
+a
12
2
+ +a
1n
n
= b
1
a
21
1
+a
22
2
+ +a
2n
n
= b
2
.
.
.
a
n1
1
+a
n2
2
+ +a
nn
n
= b
n
(1.13)
Sea j arbitrario, 1 j n, multipliquemos la primera igualdad de (1.13) por A
1j
(el
adjunto de a
1j
), la segunda por A
2j
, . . . , la enesima por A
nj
y sumandolas se obtiene
_
n
i=1
a
i1
A
ij
_
1
+
_
n
i=1
a
i2
A
ij
+
_
2
+ +
_
n
i=1
a
in
A
ij
_
n
=
n
i=1
b
i
A
ij
n
i=1
a
ij
A
ij
= d y si r ,= j,
n
i=1
a
ir
A
ij
= 0, luego
d
j
=
n
i=1
b
i
A
ij
Pero
n
i=1
b
i
A
ij
es el desarrollo de un determinante identico a d salvo por su j-esima
columna que es reemplazada por la solumna de los terminos libres b
1
, b
2
, . . . , b
n
. Si
d
j
n
i=1
b
i
A
ij
entonces
j
=
d
j
d
1 j n (1.14)
Se concluye que si d ,= 0 y el sistema es compatible entonces la solucion es unica y
esta dada por (1.14).
A la inversa, supongamos que d ,= 0 y reemplacemos la n-tupla (
d
1
d
,
d
2
d
, . . . ,
d
n
d
) en el
lado izquierdo de (1.12). Veamos que sucede en la i-esima ecuacion:
n
r=1
a
ir
d
r
d
=
1
d
n
r=1
a
ir
n
s=1
b
s
A
sr
=
n
s=1
_
1
d
n
r=1
a
ir
A
sr
_
b
s
Pero
1
d
n
r=1
a
ir
A
sr
=
_
0 si i ,= s
d
d
si i = s
26 CAP
2 1 5 1
1 3 0 6
0 2 1 2
1 4 7 6
= 27
1.5. LA REGLA DE CRAMER 27
d
1
=
8 1 5 1
9 3 0 6
5 2 1 2
0 4 7 6
= 81 d
2
=
2 8 5 1
1 9 0 6
0 5 1 2
1 0 7 6
= 108
d
3
=
2 1 8 1
1 3 9 6
0 2 5 2
1 4 0 6
= 27 d
4
=
2 1 5 8
1 3 0 9
0 2 1 5
1 4 7 0
= 27
1
= 3
2
= 4
3
= 1
4
= 1
Ejemplo: Dado el sistema
_
_
_
_
_
1 2 0
1 0 1 0
0 1 0
_
_
_
_
_
encuentre los valores de para los cuales el sistema admite una solucion no trivial.
Necesariamente
1 2
1 0 1
0 1
= 0
Entonces
0 1
1
1 2
1
= 0 , ( + 2) = 0
luego para cualquier valor de el sistema admite solo la solucion trivial.
28 CAP
i=1
l
i
i
Denicion 2.2 Diremos que los vectores
1
,
2
, . . . ,
s
son linealmente dependientes
si hay n umeros reales k
1
, k
2
, . . . , k
s
no todos nulos tales que
s
i=1
k
i
i
= 0
En caso contrario diremos que los vectores
1
,
2
, . . . ,
s
son linealmente indepen-
dientes.
El conjunto de vectores es linealmente independiente si y solo si la unica combinacion
lineal de ellos que es igual a cero es la trivial, esto es,
0
1
+ 0
2
+ + 0
n
(aquella en que todos los k
i
son cero).
Vemos que todo conjunto de vectores que contiene al vector cero es linealmente de-
pendiente, si
i
= 0 tomemos k
j
= 0 si j ,= i, k
i
,= 0 y se tiene
0
1
+ 0
2
+ +k
i
i
+ + 0
n
= 0
2.3. DIMENSI
i=1
k
i
i
=
0. Sin perdida de generalidad podemos suponer que k
1
,= 0. Entonces
1
=
s
i=2
k
i
k
1
i
.
A la inversa, supongamos que hay l
2
, l
3
, . . . , l
s
tales que
1
=
s
i=2
l
2
2
. Entonces
1
s
i=2
l
2
2
= 0 ,
tome k
1
= 1, k
i
= l
i
, i = 2, 3, . . . , s.
Ejemplo: En R
3
sean
1
= (5, 2, 1)
2
= (1, 3, 3)
3
= (9, 7, 5)
4
= (3, 8, 7)
Es facil ver que 4
1
2
3
3
+2
4
= 0, el sistema de cuatro vectores es linealmente
dependiente. . Tambien 2
1
+
2
3
= 0 luego
1
,
2
,
3
tambien son linealmente
dependientes como tambien lo son
2
,
3
,
4
.
Nota: Supongamos que de los s vectores
1
,
2
, . . . ,
s
hay r de ellos linealmente
dependientes, r < s, entonces el conjunto
1
,
2
, . . . ,
s
es linealmente dependiente. En
efecto, sin perdida de generalidad podemos suponer que
1
,
2
, . . . ,
r
son linealmente
dependientes y por lo tanto hay k
1
, k
2
, . . . , k
r
no todos nulos tales que
k
1
1
+ +k
r
r
= 0 .
Elija k
r+1
= k
r+2
= = k
s
= 0.
Es obvio que si un conjunto de vectores es linealmente independiente, todo subconjunto
de el es linealmente independiente.
Notacion: Cuando un sistema de vectores es linealmente dependiente diremos que es
l.d., si es linealmente independiente diremos que es l.i.
2.3. Dimension del espacio vectorial R
n
Es claro que en R
n
hay sistemas de n vectores que son l.i., considere el sistema
e
1
= (1, 0, 0, . . . , 0)
e
2
= (0, 1, 0, . . . , 0)
.
.
.
e
n
= (0, 0, 0, . . . , 1)
32 CAP
i=1
k
i
e
i
= 0 (k
1
, k
2
, . . . , k
n
) = 0 = (0, 0, . . . , 0)
luego k
i
= 0, i = 1, 2, . . . , n.
Teorema 2.4 Sean
1
,
2
, . . . ,
s
R
n
, s > n. Entonces el conjunto es l.d.
Demostracion: Sean
i
= (a
i1
, a
i2
, . . . , a
in
), i = 1, 2, . . . , s y supongamos que
s
i=1
k
i
i
= 0. Entonces
s
i=1
(k
i
a
i1
, k
i
a
i2
, . . . , k
i
a
in
) = (k
1
a
11
, k
1
a
12
, . . . , k
1
a
1n
) +
(k
2
a
21
, k
2
a
22
, . . . , k
2
a
2n
) +
.
.
.
(k
s
a
s1
, k
2
a
s2
, . . . , k
s
a
sn
)
=
_
s
i=1
k
i
a
i1
,
s
i=1
k
i
a
i2
, . . . ,
s
i=1
k
i
a
in
_
= 0
Obtenemos as un sistema lineal homogeneo
s
i=1
a
ij
k
i
= 0 j = 1, 2, . . . , n (2.1)
para las variables k
1
, k
2
, . . . , k
s
.
Sabemos que (2.1) es compatible, como el n umero de incognitas es mayor que el n umero
de ecuaciones (s > n), al aplicar el metodo de Gauss el sistema queda reducido a la
forma trapezoidal y por lo tanto tiene soluciones no triviales.
Del teorema se concluye que un sistema l.i. de vectores en R
n
consta a lo mas de n
vectores (ya vimos que hay sistemas l.i. que constan exactamente de n vectores).
Denicion 2.5 Sean
1
,
2
, . . . ,
r
un sistema de vectores l.i. en R
n
. Diremos que
el sistema es linealmente independiente maximal si al agregar a el cualquier R
n
,
el nuevo sistema
1
,
2
, . . . ,
r
, es l.d.
De lo dicho anteriormente se concluye que todo sistema l.i. en R
n
que consta de n
vectores es linealmente independiente maximal.
Sea
1
,
2
, . . . ,
n
l.i. en R
n
, sea R
n
arbitrario. Puesto que
1
,
2
, . . . ,
n
es
maximal, hay constantes k
1
, k
2
, . . . , k
n+1
, no todas nulas, tales que
n
i=1
k
i
i
+k
n+1
= 0
Si k
n+1
= 0 entonces al menos uno entre k
1
, k
2
, . . . , k
n
es distinto de cero lo cual es
contradiccion. Se concluye que k
n+1
,= 0 y es combinacion lineal de los vectores
1
,
2
, . . . ,
n
. Se concluye que
2.3. DIMENSI
i=1
a
i
e
i
.
Sea
1
,
2
, . . . ,
r
l.i., y supongamos que no es maximal. Entonces hay
r+1
R
n
tal
que
1
,
2
, . . . ,
r
,
r+1
es l.i. Si no es maximal, hay
r+2
R
n
tal que
1
,
2
, . . . ,
r
,
r+1
,
r+2
es l.i. Sabemos que el proceso debe terminar porque a lo mas pueden
completarse n vectores l.i. Entonces todo sistema l.i. esta contenido en un sistema
maximal, en particular un vector distinto de cero esta contenido en un sistema lin-
ealmente independiente maximal. Se concluye que hay innitos sistemas linealmente
independientes maximales en R
n
.
Hay sistemas linealmente independientes maximales que constan de menos de n vec-
tores ? La respuesta es negativa, todos constan exactamente de n vectores. Nos abo-
caremos a responder la pregunta recien formulada.
Denicion 2.6 Diremos que el vector se expresa linealmente mediante el sistema
de vectores
1
,
2
, . . . ,
r
si es combinaci on lineal de ellos.
Es claro que si se expresa linealmente mediante un subsistema
1
,
2
, . . . ,
r
tam-
bien se expresa linealmente mediante
1
,
2
, . . . ,
r
.
Denicion 2.7 Diremos que el sistema de vectores
1
,
2
, . . . ,
s
se expresa lineal-
mente mediante el sistema de vectores
1
,
2
, . . . ,
r
si cada uno de los vectores
1
,
2
, . . . ,
s
es combinacion lineal de ellos.
Teorema 2.8 Supongamos que el sistema de vectores
1
,
2
, . . . ,
s
se expresa lin-
ealmente mediante el sistema de vectores
1
,
2
, . . . ,
r
y que el sistema de vectores
1
,
2
, . . . ,
t
se expresa linealmente mediante el sistema de vectores
1
,
2
, . . . ,
s
.
Entonces el sistema
1
,
2
, . . . ,
t
se expresa linealmente mediante el sistema
1
,
2
,
. . . ,
r
.
Demostracion: Sea
j
=
s
i=1
l
ji
i
j = 1, 2, . . . , t
i
=
r
k=1
ik
k
i = 1, 2, . . . , s entonces
j
=
s
i=1
l
ji
r
k=1
ik
k
=
r
k=1
_
s
i=1
l
ji
ik
_
k
j = 1, 2, . . . , t
34 CAP
i
=
s
j=1
a
ij
j
i = 1, 2, . . . , r
En R
s
denimos los vectores
1
= (a
11
, a
12
, . . . , a
1s
)
2
= (a
21
, a
22
, . . . , a
2s
)
.
.
.
r
= (a
r1
, a
r2
, . . . , a
rs
)
Como r > s el conjunto de vectores
1
,
2
, . . . ,
r
es l.d. y por lo tanto hay k
1
, k
2
,
. . . , k
r
no todos nulos tales que
r
l=1
k
l
l
= 0
Igualando las componentes a cero tenemos que
r
i=1
k
i
a
ij
= 0 j = 1, 2, . . . , s
Pero
r
i=1
k
i
i
=
r
i=1
k
i
s
j=1
a
ij
j
=
s
j=1
_
r
i=1
k
i
a
ij
_
j
= 0
lo cual es contradiccion luego r s.
Corolario 2.11 Sean
1
,
2
, . . . ,
r
y
1
,
2
, . . . ,
s
sistemas equivalentes en R
n
ambos l.i. Entonces r = s.
Por denicion se tiene que si
1
,
2
, . . . ,
r
y
1
,
2
, . . . ,
s
son sistemas linealmente
independientes maximales en R
n
entonces ellos son equivalentes y por el corolario se
tiene que r = s. Como hay sistemas maximales de n vectores se tiene que r = s = n.
Todos los sistemas l.i. maximales en R
n
constan de n vectores y hay innitos de ellos.
Diremos que un sistema l.i. maximal en R
n
es una base de R
n
y el que todas las bases
de R
n
constan del mismo n umero n de vectores se expresa diciendo que R
n
tiene di-
mension n.
2.4. RANGO DE UN SISTEMA DE VECTORES 35
2.4. Rango de un sistema de vectores
Sea
1
,
2
, . . . ,
n
una base de R
n
, sea = (a
1
, a
2
, . . . , a
n
). Entonces hay c
1
, c
2
, . . . ,
c
n
tales que =
n
i=1
c
i
i
. Los n umeros c
i
se llaman las componentes del vector con
respecto a la base
1
,
2
, . . . ,
n
. Si
1
= (b
11
, . . . , b
1n
)
2
= (b
21
, . . . , b
2n
)
.
.
.
n
= (b
n1
, . . . , b
nn
)
entonces
n
k=1
c
k
k
=
n
k=1
c
k
(b
k1
, b
k2
, . . . , b
kn
) = (a
1
, a
2
, . . . , a
n
)
es equivalente a
n
k=1
c
k
b
kj
= a
j
j = 1, 2, . . . , n (2.2)
luego para encontrar las componentes del vector con respecto a la base
1
,
2
, . . . ,
n
debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distinto
de componentes en cada base pero tal juego es unico. En efecto, si
=
n
i=1
c
i
i
=
n
i=1
c
i
n
i=1
(c
i
c
i
)
i
= 0
entonces c
i
= c
i
porque los
1
,
2
, . . . ,
n
son l.i.
Notese que si queremos encontrar las componentes del vector 0 en la base
1
,
2
, . . . ,
n
tenemos que resolver el sistema
n
k=1
c
k
b
kj
= 0 j = 1, 2, . . . , n (2.3)
Puesto que se espera que (2.3) solo tenga la solucion trivial necesariamente debe tenerse
que det(b
ij
) ,= 0. A la inversa, si det(b
ij
) ,= 0 entonces (2.3) solo tiene la solucion trivial
y
n
k=1
c
k
k
= 0
implica c
k
= 0, k = 1, 2, . . . , n. Esto demuestra que
Teorema 2.12 El conjunto de vectores
1
,
2
, . . . ,
n
es l.i. si y solo si det(b
ij
) ,= 0.
La base e
1
, e
2
, . . . , e
n
se llama la base estandar de R
n
, en ella
=
n
k=1
a
k
e
k
36 CAP
ij
=
_
1 si i = j
0 si i ,= j
Entonces
n
k=1
c
k
k
=
n
k=1
c
k
(b
k1
, b
k2
, . . . , b
kn
) = e
i
= (
i1
,
i2
, . . . ,
in
)
Pero queremos que c
k
=
ik
para k = 1, 2, . . . , n luego
n
k=1
ik
(b
k1
, b
k2
, . . . , b
kn
) = (
i1
,
i2
, . . . ,
in
) .
En el miembro izquierdo
ik
= 0 si k ,= i,
ii
= 1 luego
(b
i1
, b
i2
, . . . , b
in
) = (
i1
,
i2
, . . . ,
in
)
luego
i
= e
i
, i = 1, 2, . . . , n.
Denicion 2.13 Sea
1
,
2
, . . . ,
r
un sistema de vectores en R
n
. Diremos que
el subsistema
i
1
,
i
2
, . . . ,
i
s
, s < r (a
i
j
1
,
2
, . . . ,
r
, j = 1, 2, . . . , s) es
linealmente independiente maximal con respecto al sistema
1
,
2
, . . . ,
r
si el sistema
i
1
,
i
2
, . . . ,
i
s
, con ,=
i
j
j = 1, 2, . . . , s,
1
,
2
, . . . ,
n
es l.d.
Nota: Si
1
,
2
, . . . ,
r
es l.i. tambien lo consideramos como un subsistema lineal-
mente independiente maximal.
Dos subsistemas como los recien denidos tienen el mismo n umero de vectores. En
efecto, sea
1
,
2
, . . . ,
r
un sistema l.d. Podemos suponer sin perdida de generali-
dad que
1
,
2
, . . . ,
s
es subsistema linealmente independiente maximal. Queremos
demostrar que
1
,
2
, . . . ,
r
(2.4)
y
1
,
2
, . . . ,
s
(2.5)
son equivalentes. Vemos que
s+1
,
s+2
, . . . ,
r
se expresan linealmente mediante
(2.5) porque (2.5) es maximal y
i
con 1 i s es
i
= 0
1
+ 0
2
+ + 1
i
+ + 0
s
as que tambien se expresa linealmente mediante (2.5) y por lo misma razon (2.5) se
expresa linealmente mediante (2.4). Entonces (2.4) es equivalente a cualquiera de sus
subsistemas linealmente independientes y por transitividad ellos son equivalentes entre
s. Por teorema previo ellos tienen el mismo n umero de vectores.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 37
Denicion 2.14 Sea
1
,
2
, . . . ,
r
un sistema de vectores en R
n
. Al n umero de
vectores de un subsistema linealmente independiente maximal cualquiera se le llama
rango del sistema
1
,
2
, . . . ,
r
.
Teorema 2.15 Sean
1
,
2
, . . . ,
r
(2.6)
y
1
,
2
, . . . ,
s
(2.7)
dos sistemas de vectores en R
n
. Sea k el rango el primer sistema y l el rango del segun-
do. Si (2.6) es expresa linealmente mediante (2.7) entonces k l y si son equivalentes,
k = l.
Demostracion: Sea
i
1
,
i
2
, . . . ,
i
k
(2.8)
linealmente independiente maximal en (2.6) y sea
j
1
,
j
2
, . . . ,
j
l
(2.9)
linealmente independiente maximal en (2.7).
Tenemos que (2.8) y (2.6) son equivalentes y tambien (2.9) y (2.7). Como (2.6) se
expresa linealmente mediante (2.7) entonces (2.8) se expresa linealmente mediante
(2.7) y por consiguiente se expresa linealmente mediante (2.9). Pero el rango de (2.8)
es igual al rango de (2.6) y el rango de (2.7) es igual al rango de (2.9). Por teorema
previo, como (2.8) es l.i. entonces el rango de (2.8) es menor o igual al rango de (2.9),
esto es, k l. Si (2.6) y (2.7) son equivalentes entonces l k luego k = l.
2.5. Rango de matrices y dependencia lineal
El problema de discernir la dependencia o independencia lineal de un sistema de vec-
tores en R
n
, sean ellos
i
= (a
i1
, a
i2
, . . . , a
in
) i = 1, 2, . . . , r
se reduce a resolver la ecuacion vectorial
r
i=1
k
i
(a
i1
, a
i2
, . . . , a
in
) = (0, 0, . . . , 0)
la cual escrita en componentes se reduce al siguiente sistema lineal homogeneo:
r
i=1
k
i
a
ij
= 0 j = 1, 2, . . . , n (2.10)
Entonces el sistema
1
,
2
, . . . ,
r
es l.d. si y solo si (2.10) tiene soluciones no triviales.
Ejemplo: En R
4
sean
1
= (0, 1, 1, 1)
2
= (2, 1, 1, 0)
3
= (1, 1, 1, 1)
38 CAP
i
= (a
1i
, a
2i
, . . . , a
si
) i = 1, 2, . . . , n
Este sistema de vectores son las columnas de A miradas como vectores en R
s
. Lla-
maremos rango de la matriz A al rango del sistema
1
,
2
, . . . ,
n
.
Es natural pensar que podramos haber usado las las de A para dar la misma deni-
cion, que en justicia deberamos hablar del rango la de A y rango columna de A.
Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si se
eligen columnas o las de A para dar la denicion de rango de A.
Sea k natural, sea k mn(s, n). Nos interesamos por los valores de k par los cuales
hay menores de orden k de la matriz A que son distintos de cero, en particular, por
el mayor de estos k. Diremos que k mn(s, n) es el mayor orden de menor no nulo
de la matriz A si hay un menor de orden k de A que es distinto de cero y todos los
menores de orden r, k < r mn(s, n) son iguales a cero. Por ejemplo, si
A =
_
_
_
_
1 2 1 0
0 1 1 2
0 3 2 1
0 2 2 4
_
_
_
_
,
es claro que det A = 0 luego k < 4.
Consideremos el menor
1 2 1
0 1 1
0 3 2
1 1
3 2
= 2 3 = 5
luego k = 3.
Notese que si todos los menores de orden k de A son cero, todos los menores de orden
superior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j
mn(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.
Teorema 2.16 El mayor orden r de menor no nulo de la matriz A es igual al rango
de A.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 39
Demostracion: Sabemos que hay menor de orden r que es distinto de cero y que
todos los menores de orden superior valen cero. Supondremos (para simplicar la
notacion) que el menor formado por las r primeras las y las r primeras columnas
de A es distinto de cero. Llamaremos D a este menor. Consideremos las r primeras
columnas de A como vectores de R
s
. Sea
i
= (a
1i
, a
2i
, . . . , a
si
) , i = 1, 2, . . . , r
y supongamos que
r
j=1
k
i
i
= 0, esto es,
r
i=1
k
i
(a
1i
, a
2i
, . . . , a
si
) = (0, 0, . . . , 0) .
En componentes se tiene
r
j=1
k
i
a
ji
= 0 j = 1, 2, . . . , n (2.11)
Supongamos que el sistema (2.11) tiene solucion no trivial. Entonces el sistema
r
i=1
k
i
a
ji
= 0 j = 1, 2, . . . , r
tiene solucion no trivial y por lo tanto su determinante es distinto de cero. Pero su
determinante es D luego hemos demostrado que las r primeras columnas de A son l.i.
En general, hemos demostrado que si M
r
es un menor de orden r de la matriz, las r
columnas de la matriz que pasan por el menor A son l.i.
Sea
i
el siguiente menor de orden r + 1 de la matriz A
i
=
a
11
a
12
a
1r
a
1l
a
21
a
22
a
2r
a
2l
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
r1
a
r2
a
rr
a
rl
a
i1
a
i2
a
ir
a
il
i
se llama un menor orlado de D y se obtiene pegando a D los r primeros
elementos de la elesima columna, r < l n, los r primeros elementos de una la i
cualquiera, 1 i s y el elemento a
il
.
Si se tiene que 1 i r,
i
tiene dos las iguales y por lo tanto vale cero y si
r < i s,
i
es un menor de orden r + 1 de la matriz A y por hipotesis vale cero.
Luego
i
= 0 para todo i. Desarrollando
i
por los adjuntos de la ultima la se tiene
r
j=1
a
ij
A
ij
+a
il
A
il
= 0
pero A
ij
no incluye a la ultima la de
i
luego es independiente de i en magnitud y
su signo en
i
esta dado por (1)
(r+1)+j
y tampoco depende de i. Para enfatizar esto
anotaremos A
j
= A
ij
, en particular A
il
= D, luego
a
i1
A
1
+a
i2
A
2
+ +a
ir
A
r
+a
il
D = 0
40 CAP
j=1
k
j
a
ij
, k
j
=
A
j
D
, j = 1, 2, . . . , r (2.12)
Pero (2.12) es verdadero para cualquier i, 1 i s y k
1
, k
2
, . . . , k
r
son independientes
de i. Luego (2.12) dice que la i-esima columna de la matriz A es combinacion lineal de
las r primeras columnas de A. Se concluye que las r primeras columnas de A forman
un sistema linealmente independiente maximal del sistema de columnas de A miradas
como vectores de R
s
. Por denicion, se tiene que el rango de A es igual a r.
Nota: Debemos hacer notar que en la demostracion anterior no usamos que todos los
menores de orden r +1 son cero, sino que los menores orlados de orden r +1 de D son
cero, esta observacion simplica el calculo del rango de A.
Para calcular el rango de una matriz A de s n tenemos que desarrollar el siguiente
proceso:
i.- Si la matriz tiene alg un elemento a
ij
,= 0, su rango es por lo menos 1. Si todos
los menores orlados de orden 2 del menor [a
ij
[ son cero entonces su rango es 1.
ii.- Si alg un menor orlado de orden 2 de [a
ij
[ es distinto de cero, sea D
2
este menor,
calculamos todos los menores orlados de orden 3 de D
2
, si todos valen cero, el
rango de la matriz es 2.
iii.- Si alg un menor orlado de orden 3 de D
2
es distinto de cero, sea D
3
dicho menor,
procedemos a los menores orlados de orden 4 de D
3
, . . .
iv.- El proceso termina cuando encontramos un menor D
k
de orden k distinto de cero
y tal que todos sus menores orlados de orden k + 1 valen cero.
Ejemplo:
A =
_
_
_
_
2 4 3 1 0
1 2 1 4 2
0 1 1 3 1
4 7 4 4 5
_
_
_
_
s = 4, n = 5, luego el rango de A puede ser a lo mas 4.
a
11
= 2 ,= 0, sea D
2
=
2 4
1 2
. D
2
= 0, pero esto no signica que A tenga rango 1,
podemos tomar por ejemplo D
2
=
2 3
1 1
= 1 ,= 0. Sea
D
3
=
2 3 1
1 1 4
0 1 3
= 12 ,= 0
Calculemos los orlados de D
3
. Ellos son
O
1
=
2 3 1 4
1 1 4 2
0 1 3 1
4 4 4 7
O
2
=
2 3 1 0
1 1 4 2
0 1 3 1
4 4 4 5
4
. Para ello, formemos una matriz de 3 4 cuyas columnas son estos vectores
A =
_
_
2 1 2 3
2 9 4 7
4 3 1 1
_
_
y calculamos su rango. Claramente
2 1
2 9
2 1 2
2 9 4
4 3 1
0 10 6
2 9 4
0 15 9
= 2
10 6
15 9
= 0
O
2
=
2 1 3
2 9 7
4 3 1
0 10 10
2 9 7
0 15 15
= 2
10 10
15 15
= 0
luego el rango de A es 2 y
1
,
2
forman un subsistema linealmente independiente
maximal.
Teorema 2.17 Sea A una matriz de sn. El maximo n umero de las l.i. de A miradas
como vectores en R
n
es igual al maximo n umero de columnas l.i. de A miradas como
vectores en R
s
.
Demostracion: Consideremos A
t
(la matriz traspuesta de A). Puesto que el valor de
un determinante no cambia cuando se traspone se tiene que rango A = rango A
t
. Pero
rango la de A = rango columna de A
t
= rango A
t
= rango A = rango columna de A
Ejemplo: Consideremos el sistema homogeneo
_
_
_
_
1 2 1 3 0
4 1 5 6 0
1 3 4 7 0
2 1 1 0 0
_
_
_
_
42 CAP
1 2
4 1
,= 0. Sea
O
1
=
1 2 1
4 1 5
1 3 4
1 2 1
0 9 1
0 5 5
,= 0
Consideremos el unico orlado de O
1
:
1 2 1 3
4 1 5 6
1 3 4 7
2 1 1 0
1 2 1 3
0 9 1 18
0 5 5 10
0 5 3 6
9 1 18
5 5 10
0 2 4
= 10
9 1 18
1 1 2
0 1 2
= 10
9 1 18
1 0 0
0 1 2
= 10
1 18
1 2
= 200 ,= 0
Luego el rango la de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, al
aplicar el metodo de Gauss, ninguna puede desaparecer y el sistema queda en la forma
triangular y por lo tanto tiene solo la solucion trivial.
Nota: Podramos haber calculado directamente el determinante del sistema y haber
vericado que era distinto de 0 y por teorema previo, cuya demostracion depende de
la regla de Cramer, haber dicho de inmediato que tena solo la solucion trivial. Hemos
demostrado que se puede concluir lo mismo sin conocer la regla de Cramer.
2.6. Equivalencia de matrices
Si A es una matriz de nn tal que su determinante d es igual a cero, el rango maximo
de A puede ser (n 1) luego las n las de la matriz son l.d. Luego si un determinante
d vale cero, entre sus las (columnas) existe una relacion de dependencia lineal. Esto
ya lo sabamos, pero el metodo del rango nos permite decir cuantas y cuales las son l.i.
Existe otro metodo mas simple para calcular el rango de una matriz.
Denicion 2.18 Se llaman transformaciones elementales de una matriz A a las sigu-
ientes:
a) La trasposicion de dos las (o columnas)
b) La multiplicacion de una la (o una columna) por un n umero distinto de cero.
c) La suma a una la (o a una columna) de otra la (o columna) multiplicada por un
n umero.
Teorema 2.19 Las transformaciones elementales de una matriz no alteran su rango.
Demostracion:
2.6. EQUIVALENCIA DE MATRICES 43
a) El orden en el cual se consideren las las no altera su dependencia lineal.
b) Sea
1
,
2
, . . . ,
r
un sistema linealmente independiente maximal de las. Sean
c
1
, c
2
, . . . , c
r
r n umeros arbitrarios distintos de cero. Supongamos que los vectores
i
= c
i
i
i = 1, 2, . . . , r son l.d. Entonces hay constantes k
i
i = 1, 2, . . . , r no todas
nulas tales que
r
i=1
k
i
i
= 0, esto es,
r
i=1
(k
i
c
i
)
i
= 0
lo cual es una contradiccion.
Sea una la cualquiera, entonces
=
r
i=1
l
i
i
=
r
i=1
l
i
c
i
i
luego el sistema
1
,
2
, . . . ,
r
es maximal.
c) Sean
1
,
2
, . . . ,
s
las las de la matriz, sean
1
,
2
, . . . ,
i
+k
j
,
i+1
, . . . ,
j
, . . . ,
s
las las de la nueva matriz. Es claro que las las de la matriz anterior y de la nueva
matriz son sistemas equivalentes de vectores y por lo tanto tienen el mismo rango.
Denicion 2.20 Diremos que dos matrices A y B son equivalentes si B proviene de
A a traves de una sucesion de transformaciones elementales.
Es evidente que una transformacion elemental es invertible, luego si B proviene de A
a traves de una sucesion de transformaciones elementales, entonces A proviene de B
a traves de una sucesion de transformaciones elementales. Es claro que dos matrices
equivalentes tienen el mismo rango.
Denicion 2.21 Sea A matriz de s n. Diremos que A tiene la forma diagonal si
a
11
= a
22
= = a
rr
= 1 (para alg un r tal que 0 r mn(s, n)) y todos los demas
elementos son cero.
Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidad
vale 1) y todos sus menores de orden r + 1 son cero, su rango es r.
Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante una
sucesion de transformaciones elementales.
44 CAP
=
_
_
_
_
_
1 a
12
a
13
a
1n
0 a
22
a
23
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
s2
a
s3
a
sn
_
_
_
_
_
,
luego, aplicando el metodo a la primera la, esto es, restando a cada columna una
columna proporcional a la primera de modo que aparezcan ceros en la primera la,
llevamos A
a la forma
A
=
_
_
_
_
_
1 0 0 0
0 a
22
a
23
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
s2
a
s3
a
sn
_
_
_
_
_
Si todos los a
ij
son cero, A
ij
es distinto de cero
aplicamos el metodo a la columna 2 y a la la 2 de A
r=1
a
ir
k
r
= b
i
i = 1, 2, . . . , s (2.14)
Interpretemos las columnas de A y la ultima columna de
A como vectores en R
s
, sean
j
= (a
1j
, a
2j
, . . . , a
sj
) j = 1, 2, . . . , n
= (b
1
, b
2
, . . . , b
s
)
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 47
Entonces
n
i=1
k
i
i
= k
1
(a
11
, a
21
, . . . , a
s1
) +k
2
(a
12
, a
22
, a
32
, . . . , a
s2
) + +k
n
(a
1n
, a
2n
, . . . , a
sn
)
=
_
n
r=1
a
1r
k
r
,
n
r=1
a
2r
k
r
, . . . ,
n
r=1
a
sr
k
r
_
Se concluye que (2.14) es equivalente a
n
i=1
k
i
i
=
luego la ultima columna de
A se expresa linealmente mediante las columnas de A (es
obvio que las demas tambien). Es claro que toda columna de A se expresa linealmente
mediante las columnas de
A. Entonces ambos sistemas de columnas son equivalentes
y por lo tanto tienen el mismo rango.
Si el rango de A es igual al de
A cualquier sistema linealmente independiente maximal
de columnas de A es linealmente independiente maximal mirado como parte del sistema
de columnas de
A. Entonces la ultima columna de
A se expresa linealmente mediante
un sistema linealmente independiente maximal de columnas de A y por lo tanto es
combinacion lineal de las columnas de A. Entonces hay n umeros k
1
, k
2
, . . . , k
n
tales
que
n
i=1
k
i
i
=
o sea, (k
1
, k
2
, . . . , k
n
) es solucion del sistema.
Supongamos que el sistema es compatible y que el rango de A es igual a r. Sin perdida
de generalidad podemos suponer que las r primeras las de A son l.i. (basta reor-
denar las ecuaciones). Supongamos que las r primeras las de
A son l.d. Entonces hay
n umeros
1
,
2
, . . . ,
n
no todos nulos tales que
r
i=1
i
(a
i1
, a
i2
, . . . , a
ir
,
i
) = 0
r
i=1
i
a
ij
= 0 j = 1, 2, . . . , n,
r
i=1
i
= 0
lo cual implica que
r
i=1
i
(a
i1
, a
i2
, . . . , a
in
) = 0, contradiccion. Las r primeras las de
5 1
2 1
,= 0,
5 1 2
2 1 4
1 3 6
1 3 6
2 1 4
1 3 6
= 0,
5 1 1
2 1 2
1 3 5
1 3 5
2 1 2
1 3 5
= 0
luego el rango de A es 2, sin embargo
5 1 7
2 1 1
1 3 0
1 3 5
2 1 1
1 3 0
0 0 5
2 1 1
1 3 0
,= 0
luego el rango de
A es 3, el sistema es incompatible.
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 49
Ejemplo: Resolver
_
_
7 3 2
1 2 3
4 9 11
_
_
Notese que
7 3
1 2
,= 0 luego el rango de A es 2.
7 3 2
1 2 3
4 9 11
4 9 11
1 2 3
4 9 11
= 0 ,
el rango de
A es 2, el sistema es compatible, las dos primeras ecuaciones son l.i.,
r = n = 2, la solucion es unica y se obtiene resolviendo
7x
1
+ 3x
2
= 2
x
1
2x
2
= 3
x
1
=
5
17
, x
2
=
23
17
Ejemplo: Resolver
_
_
1 1 2 1 1 1
3 1 1 4 3 4
1 5 9 8 1 0
_
_
Notese que
1 1
3 1
,= 0 pero
1 1 2
3 1 1
1 5 9
1 1 2
0 4 7
0 4 7
= 0
1 1 1
3 1 4
1 5 8
1 1 1
0 4 7
0 4 7
= 0
1 1 1
3 1 3
1 5 1
1 1 1
0 4 0
0 4 0
= 0
luego el rango de A es 2.
1 1 1
3 1 4
1 5 0
1 1 1
0 4 1
0 4 1
= 0 ,
rango
A = 2, el sistema es compatible.
Como las dos primeras las de
A son l.i. el sistema se reduce a las dos primeras
ecuaciones, elijamos x
3
, x
4
, x
5
como incognitas independientes
x
1
+x
2
= 1 + 2x
3
+x
4
x
5
3x
1
x
2
= 4 x
3
4x
4
3x
5
50 CAP
4 1 2
1 2 1
2 5 0
2 5 0
1 2 1
2 5 0
= 0
pero
1 2 1
2 1 2
5 0 1
1 2 1
4 3 0
4 2 0
,= 0
4 1 2 1
1 2 1 2
2 5 0 1
3 3 1 3
4 1 2 1
7 4 3 0
2 4 2 0
15 6 7 0
7 4 3
2 4 2
15 6 7
15 12 11
2 4 2
15 6 7
15 12 11
2 4 2
0 18 4
= 4
15 12 11
1 2 1
0 9 2
= 4
0 18 4
1 2 1
0 9 2
= 0 ,
se concluye que rango A = 3. El unico menor orlado de 4 4 en
A es (el otro es el
det A que ya vimos que es cero)
1 2 1 3
2 1 2 2
5 0 1 1
3 1 3 1
1 2 1 3
0 5 4 8
0 10 4 16
0 5 6 8
5 4 8
10 4 16
5 6 8
= 0
pues las columnas 1 y 3 son proporcionales; el rango de
A es 3 luego el sistema es
compatible.
Notese que no es posible usar la regla de Cramer, que la incognita independiente es
x
1
, que las tres primeras las de
A son l.i., despues de estos considerandos tenemos:
x
2
2x
3
+x
4
= 3 4x
1
2x
2
x
3
+ 2x
4
= 2 x
1
5x
2
+x
4
= 1 2x
1
x
2
2x
3
+x
4
= 3 4x
1
5x
3
+x
4
= 8 9x
1
10x
3
4x
4
= 16 + 18x
1
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 51
Sumando las dos ultimas tenemos 5x
3
= 8+9x
1
, reemplazando en la segunda tenemos
x
4
= 0. Al reemplazar en la primera ecuacion se obtiene
5x
2
2(8 + 9x
1
) = 15 20x
1
x
2
=
1
5
(1 2x
1
)
2.7.2. Sistemas homogeneos
En este caso rango A = rango
A luego son siempre compatibles. Si r = n, la unica
solucion del sistema es la trivial, si r < n el sistema tiene innitas soluciones. En
particular, si el n umero de ecuaciones es igual al n umero de incognitas el sistema tiene
soluciones distintas de la trivial si y solo si det A = 0 (r < n).
Sean
= (a
1
, a
2
, . . . , a
n
)
= (b
1
, b
2
, . . . , b
n
)
soluciones de un sistema homogeneo. Entonces cualquier combinacion lineal de ellas
es tambien solucion, esto es, si , son n umeros arbitrarios, + es solucion del
sistema (lo cual no es cierto para sistemas no homogeneos).
Puesto que las soluciones pueden ser interpretadas como vectores en R
n
, un conjunto
de soluciones linealmente independiente maximal con respecto al conjunto de todas las
soluciones del sistema puede constar a lo mas de n soluciones, entonces existe un con-
junto nito de soluciones del cual todas las demas son combinaciones lineales. Dicho
conjunto se llamara un sistema fundamental de soluciones. Por un teorema previo, to-
dos los conjuntos fundamentales de soluciones constan del mismo n umero de soluciones.
Teorema 2.24 Sea A la matriz de un sistema homogeneo de s ecuaciones con n
incognitas, sea r igual al rango de A. Entonces un conjunto fundamental de soluciones
consta de n r soluciones.
Demostracion: Sin perdida de generalidad podemos suponer que las incognitas inde-
pendientes son x
r+1
, x
r+2
, . . . , x
n
. Sea d un determinante arbitrario de (nr)(nr)
distinto de cero. Sea
d =
c
1(r+1)
c
1(r+2
) c
1n
c
2(r+1)
c
2(r+2)
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
(nr)(r+1)
c
(nr)(r+2)
c
(nr)n
Adoptemos como valores para las incognitas independientes los elementos de la i-esima
la de d, esto es,
x
r+1
= c
i(r+1)
, x
r+2
= c
i(r+2)
, x
n
= c
in
,
sea
i
= (c
i1
, c
i2
, , c
ir
, c
i(r+1)
, , c
in
) la solucion del sistema obtenida para dichos
valores de las incognitas independientes, 1 i n r.
52 CAP
i
,
i
= (c
i(r+1)
, c
i(r+2)
, . . . , c
in
) i = 1, 2, . . . , n r y
= (b
r+1
, b
r+2
, . . . , b
n
)
Es claro que
1
,
2
, . . . ,
nr
son un sistema l.i. de vectores en R
nr
y que en R
nr
el sistema
1
,
2
, . . . ,
nr
,
= k
1
1
+k
2
2
+ +k
nr
nr
En R
n
, sea
=
nr
i=1
k
i
i
.
Puesto que es combinacion lineal de soluciones del sistema, el mismo tambien es
solucion del sistema. Pero tiene sus ultimas n r componentes iguales a cero, luego
es la solucion obtenida cuando x
r+1
= x
r+2
= = x
n
= 0. Como el sistema es
homogeneo esta es precisamente la solucion trivial luego = 0 y
=
nr
i=1
k
i
i
.
El sistema
1
,
2
, . . . ,
nr
es maximal.
Ejemplo: Encuentre un sistema fundamental de soluciones para
_
_
_
_
3 1 8 2 1 0
2 2 3 7 2 0
1 11 12 34 5 0
1 5 2 16 3 0
_
_
_
_
En la matriz A del sistema hagamos las siguientes transformaciones elementales:
A la tercera la restamos dos veces la primera, sumamos dos veces la segunda y una
vez la cuarta, obtenemos
A
1
=
_
_
_
_
3 1 8 2 1
2 2 3 7 2
0 0 0 0 0
1 5 2 16 3
_
_
_
_
En A
1
permutamos la tercera la y la cuarta:
A
2
=
_
_
_
_
3 1 8 2 1
2 2 3 7 2
1 5 2 16 3
0 0 0 0 0
_
_
_
_
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 53
luego
A
3
=
_
_
_
_
1 5 2 16 3
2 2 3 7 2
1 5 2 16 3
0 0 0 0 0
_
_
_
_
A
4
=
_
_
_
_
1 5 2 16 3
2 2 3 7 2
0 0 0 0 0
0 0 0 0 0
_
_
_
_
Es claro que rango A = 2 y que podemos elegir x
3
, x
4
, x
5
como incognitas indepen-
dientes.
x
1
+ 5x
2
= 2x
3
16x
4
+ 3x
5
2x
1
2x
2
= 3x
3
+ 7x
4
2x
5
8x
2
= 7x
3
25x
4
+ 4x
5
x
2
=
1
8
(7x
3
25x
4
+ 4x
5
)
2x
1
1
4
(7x
3
25x
4
+ 4x
5
) = 3x
3
+ 7x
4
2x
5
8x
1
7x
3
+ 25x
4
4x
5
= 12x
3
+ 28x
4
8x
5
x
1
=
1
8
(19x
3
+ 3x
4
4x
5
)
Tomemos d como
d =
1 0 0
0 1 0
0 0 1
Obtenemos
1
= (
19
8
,
7
8
, 1, 0, 0)
2
= (
3
8
,
25
8
, 0, 1, 0)
3
= (
1
2
,
1
2
, 0, 0, 1)
2.7.3. Soluciones para sistemas arbitrarios
Una manera de escribir las soluciones de un sistema lineal arbitrario es la siguiente.
Supongamos que por alg un metodo se ha encontrado una solucion de el. La llaramemos
una solucion particular del sistema y la designaremos por
p
. Sea una solucion
cualquiera del sistema, sea
1
,
2
, . . . ,
nr
un sistema fundamental de soluciones del
correspondiente sistema homogeneo. Como
p
es solucion del sistema homogeneo,
hay n umeros k
1
, k
2
, . . . , k
nr
tales que
p
=
nr
i=1
k
i
i
.
Se concluye que , conocida una solucion del sistema, basta resolver el correspondiente
sistema homogeneo, ya que todas las soluciones del sistema original son de la forma
= solucion particular + una solucion del sistema homogeneo .
54 CAP
Algebra de matrices
Denicion 3.1 Sean A = (a
ij
), B = (b
ij
) matrices de mn. A y B se dicen iguales
si
a
ij
= b
ij
1 i m 1 j n
Dos matrices son iguales si y solo si sus elementos correspondientes son iguales.
Denicion 3.2 Sean A = (a
ij
), B = (b
ij
) matrices de m n. Llamaremos matriz
suma de A y B a la matriz de mn
A+B = (a
ij
+b
ij
)
Es trivial que la operacion suma de matrices tiene las siguientes propiedades:
i.- A+B = B +A
ii.- A+ (B +C) = (A+B) +C
iii.- Existe una unica matriz de m n, la matriz 0 = (0
ij
) donde 0
ij
= 0 para todo
1 i m, 1 j n, tal que A+ 0 = A para toda matriz A de mn.
iv.- Dada una matriz A = (a
ij
) de mn, existe una unica matriz de mn
A = (a
ij
)
tal que A+ (A) = 0.
Denicion 3.3 Sea A = (a
ij
) matriz de mn, k un n umero arbitrario. Llamaremos
matriz producto de A por el n umero k a
kA = (ka
ij
)
Es trivial que la operacion multiplicacion de una matriz por un n umero k tiene las
siguientes propiedades:
i.- 1 A = A
ii.- k
1
(k
2
A) = (k
1
k
2
)A
iii.- k(A
1
+A
2
) = kA
1
+kA
2
iv.- (k
1
+k
2
)A = k
1
A+k
2
A
55
56 CAP
ITULO 3.
ALGEBRA DE MATRICES
3.1. Producto de matrices
Denicion 3.4 Sea A = (a
ij
) matriz de mn, B = (b
ij
) matriz de nq. Llamaremos
matriz producto de A y B a la matriz de mq
AB = (c
ij
)
donde c
ij
=
n
k=1
a
ik
b
kj
1 i m, 1 j q.
Ejemplo: Sea A =
_
_
a
11
a
12
a
21
a
22
a
31
a
32
_
_
, B =
_
b
11
b
21
_
. Entonces
AB =
_
_
a
11
b
11
+a
12
b
21
a
21
b
11
+a
22
b
21
a
31
b
11
+a
32
b
21
_
_
.
Nota: De la denicion se ve que en general el producto de matrices no es conmutativo,
pues el n umero de las y columnas de la matriz producto cambia si se altera el orden
de los factores, salvo si se multiplican matrices cuadradas del mismo orden. Pero a un
cuando A y B sean ambas de n n el producto en general no es conmutativo, por
ejemplo, si
A =
_
1 2
0 1
_
, B =
_
1 2
1 1
_
AB =
_
3 4
1 1
_
, BA =
_
1 4
1 3
_
La operacion multiplicacion de matrices tiene las siguientes propiedades:
i.- Si k es un n umero, A una matriz de mn, B matriz de n q, entonces
(kA)B = A(kB) = kAB
ii.- Si A es una matriz de mn, B y C son matrices de n q, entonces
A(B +C) = AB +AC
y si B y C son matrices de mn y A es matriz de n q, entonces
(B +C)A = BA+CA.
iii.- El producto de matrices es asociativo. Sean A = (a
ij
) de m n, B = (b
ij
) de
n q, C = (c
ij
) de q r, entonces
(AB)C =
_
q
k=1
(AB)
ik
c
kj
_
=
_
q
k=1
_
n
l=1
a
il
b
lk
_
c
kj
_
=
_
n
l=1
a
il
q
k=1
b
lk
c
kj
_
=
_
n
l=1
a
il
(BC)
lj
_
= A(BC)
3.1. PRODUCTO DE MATRICES 57
Teorema 3.5 Sean A y B matrices de n n. Entonces det AB = det Adet B.
Demostracion: Sea A = (a
ij
), B = (b
ij
). Sea el determinante auxiliar de 2n 2n
=
a
11
a
12
a
1n
0 0 0
a
21
a
22
a
2n
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
0 0 0
1 0 0 b
11
b
12
b
1n
0 1 0 b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 b
n1
b
n2
b
nn
k=1
a
1k
b
k1
n
k=1
a
2k
b
k1
.
.
.
n
k=1
a
nk
b
k1
0
0
.
.
.
0
Luego a la columna n + 2 sumamos
b
12
C
1
+b
22
C
2
+ +b
n2
C
n
58 CAP
ITULO 3.
ALGEBRA DE MATRICES
La columna n + 2 de queda as:
n
k=1
a
1k
b
k2
n
k=1
a
2k
b
k2
.
.
.
n
k=1
a
nk
b
k2
0
0
.
.
.
0
Despues de n etapas se tiene
=
a
11
a
12
a
1n
n
k=1
a
1k
b
k1
n
k=1
a
1k
b
k2
n
k=1
a
1k
b
kn
a
21
a
22
a
2n
n
k=1
a
2k
b
k1
n
k=1
a
2k
b
k2
n
k=1
a
2k
b
kn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
n
k=1
a
nk
b
k1
n
k=1
a
nk
b
k2
n
k=1
a
nk
b
kn
1 0 0 0 0 0
0 1 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0 0
k=1
a
ik
b
kj
1 i n, 1 j n
esto es, ellos son los elementos de la matriz AB. Desarrollando por Laplace pero
ahora por los menores de n n de las ultimas las se tiene
= (1)
n+1+n+2++n+n+1+2++n
(1)
n
det AB
Pero
(n + 1 +n + 2 + +n +n + 1 + 2 + +n) +n = n
2
+ 2
n(n + 1)
2
+n = 2n
2
+ 2n
es par luego = det AB y tambien = det Adet B.
Denicion 3.6 Sea A matriz de n n. Diremos que A es singular si det A = 0.
3.2. MATRICES INVERSAS 59
Del teorema se deduce que si A es singular o B es singular entonces AB es singular.
Recordemos que el smbolo
ij
(delta de Kronecker) se dene como
ij
= 0 si i ,= j y
ii
= 1.
Llamaremos matriz identidad de n n a la matriz I de n n tal que I = (
ij
). Si A
es cualquier matriz de n n y A = (a
ij
) entonces
AI =
_
n
k=1
a
ik
kj
_
= (a
ij
) = A,
analogamente IA = A.
Notese que I es unica. Si hubiese otra matriz I
de n n tal que AI
= I
A = A A
entonces
I = II
= I
I
I
= II
= I
I
Notese que det I = 1.
3.2. Matrices inversas
Resolvamos ahora el siguiente problema: dada una matriz A de n n buscamos una
matriz B de n n tal que AB = BA = I.
Puesto que det AB = det Adet B = 1, para que B pueda existir A debe ser no singular.
Nota: Recordemos que la matriz traspuesta de A = (a
ij
) es la matriz A
t
= (b
ij
)
donde b
ij
= a
ji
.
Denicion 3.7 Sea A = (a
ij
) matriz de n n. Llamaremos matriz adjunta de A a
la matriz de n n A
= (b
ij
), donde b
ij
= A
ji
, esto es, el elemento que esta en la
interseccion d ela la i y la columna j de A
= (A
ji
) =
_
_
_
_
_
A
11
A
21
A
n1
A
12
A
22
A
n2
.
.
.
.
.
.
.
.
.
.
.
.
A
1n
A
2n
A
nn
_
_
_
_
_
Ejemplo: Sea A =
_
_
1 0 1
2 1 0
0 1 2
_
_
.
A
11
=
1 0
1 2
= 2 A
12
=
2 0
0 2
= 4 A
13
=
2 1
0 1
= 2
A
21
=
0 1
1 2
= 1 A
22
=
1 1
0 2
= 2 A
23
=
1 0
0 1
= 1
A
31
=
0 1
1 0
= 1 A
32
=
1 1
2 0
= 2 A
33
=
1 0
2 1
= 1
60 CAP
ITULO 3.
ALGEBRA DE MATRICES
Entonces
A
=
_
_
2 1 1
4 2 2
2 1 1
_
_
Notese que
AA
=
_
_
1 0 1
2 1 0
0 1 2
_
_
_
_
2 1 1
4 2 2
2 1 1
_
_
=
_
_
4 0 0
0 4 0
0 0 4
_
_
A
A =
_
_
2 1 1
4 2 2
2 1 1
_
_
_
_
1 0 1
2 1 0
0 1 2
_
_
=
_
_
4 0 0
0 4 0
0 0 4
_
_
Sea A no singular, sea d = det A, entonces
AA
=
_
n
k=1
a
ik
(A
)
kj
_
=
_
n
k=1
a
ik
A
jk
_
Si i = j,
n
k=1
a
ik
A
ik
= d, si i ,= j,
n
k=1
a
ij
A
jk
= 0, luego AA
= (d
ij
) = dI. Analoga-
mente,
A
A =
_
n
k=1
A
ki
a
kj
_
= dI
Se tiene que det AA
= d
n
luego det A
= d
n1
, si A es no singular, A
tambien es no
singular.
Sea B =
1
d
A
= B
A = I luego (B
A)B = B y
B
(AB) = B
, entonces B
k=1
(A
1
)
ik
B
k1
_
=
_
n
k=1
1
d
A
ki
b
k1
_
=
1
d
_
n
k=1
b
k
A
ki
_
= (
d
i
d
)
3.4. Rango de un producto de matrices
Sea A = (a
ij
) matriz de mn, B = (b
ij
) matriz de np. Sea C = AB matriz de mp.
Teorema 3.8 rango C rango A, rango C rango B.
Demostracion: Si rango de B = 0 (B es la matriz cero) entonces AB = 0 y
rango C = 0, el teorema se cumple.
Si rango B = p (todas las columnas son l.i.), como el rango de C no puede exceder el
n umero de columnas de C se tiene rango C rango B.
Sea rango B = r, 0 < r < p. Para simplicar la notacion en la demostracion suponga-
mos que las r primeras columnas de B son l.i. Consideremos la columna k, k > r; hay
1
,
2
, . . . ,
r
tales que
_
_
_
_
_
b
1k
b
2k
.
.
.
b
nk
_
_
_
_
_
=
1
_
_
_
_
_
b
11
b
21
.
.
.
b
n1
_
_
_
_
_
+
2
_
_
_
_
_
b
12
b
22
.
.
.
b
n2
_
_
_
_
_
+ +
r
_
_
_
_
_
b
1r
b
2r
.
.
.
b
nr
_
_
_
_
_
esto es,
b
jk
=
r
s=1
s
b
js
j = 1, 2, . . . , n.
Puesto que c
ik
=
n
j=1
a
ij
b
jk
se tiene que
c
ik
=
n
j=1
a
ij
r
s=1
s
b
js
=
r
s=1
_
_
s
n
j=1
a
ij
b
js
_
_
=
n
s=1
s
c
is
1 i m,
esto es
_
_
_
_
_
c
1k
c
2k
.
.
.
c
mk
_
_
_
_
_
=
1
_
_
_
_
_
c
11
c
21
.
.
.
c
m1
_
_
_
_
_
+
2
_
_
_
_
_
c
12
c
22
.
.
.
c
m2
_
_
_
_
_
+ +
r
_
_
_
_
_
c
1r
c
2r
.
.
.
c
mr
_
_
_
_
_
62 CAP
ITULO 3.
ALGEBRA DE MATRICES
luego en C la columna k, k > r, es combinacion lineal de las r primeras columnas, se
concluye que el rango de C es menor o igual que r.
Nota: (AB)
t
= (
ij
) donde
ij
= (AB)
ji
=
n
k=1
a
jk
b
ki
=
n
k=1
(B
t
)
ik
(A
t
)
kj
luego (AB)
t
= B
t
A
t
.
Entonces C
t
= B
t
A
t
luego rango C
t
rango A
t
pero rango C
t
= rango C, rango A
t
=
rango A luego rango C rango A.
Corolario 3.9 Sea A matriz de mn, B matriz no singular de n n, D matriz no
singular de mm. Entonces rango AB = rango A y rango DA = rango A.
Demostracion: rango AB rango A, pero A = A(BB
1
) = (AB)B
1
luego rango A
rango AB. Analogamente para D.
El rango se preserva bajo multiplicacion por una matriz no singular.
Nota: En la demostracion del teorema no es necesario recurrir a la matriz traspuesta.
De la denicion del producto de matrices se tiene que c
ik
=
n
j=1
a
ij
b
jk
, i = 1, 2, . . . , n.
Por otra parte
n
j=1
b
jk
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
n
j=1
b
jk
a
1j
n
j=1
b
jk
a
2j
.
.
.
n
j=1
b
jk
a
mj
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
c
1k
c
2k
.
.
.
c
mk
_
_
_
_
_
Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas de
AB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistema
de columns de C se expresa linealmente mediante el sistema de columnas de A, por
teorema previo, rango C rango A.
Por otra parte, sea i jo, entonces c
ij
=
n
k=1
a
ik
b
kj
, 1 i n. Consideremos
n
k=1
a
ik
(b
k1
, b
k2
, . . . , b
kp
) =
_
n
k=1
a
ik
b
k1
,
n
k=1
a
ik
b
k2
, ,
n
k=1
a
ik
b
kp
_
= (c
i1
, c
i2
, . . . , c
ip
)
Luego, en general, al pre - multiplicar una matriz B por una matriz A las las de
AB son combinaciones lineales de las las de B, el sistema de las de C se expresa
linealmente mediante el sistema de las de B luego rango AB rango B.
Captulo 4
Vectores en R
n
4.1. Propiedades
Con el n de estudiar los sistemas lineales de ecuaciones introdujimos una estructura
algebraica auxiliar a la cual designamos por R
n
. Por el momento nos olvidaremos de
las operaciones de suma y multiplicacion por un n umero y focalizaremos nuestro in-
teres en el conjunto R
n
a cuyos elementos llamaremos puntos.
Sean P = (x
1
, x
2
, . . . , x
n
), Q = (y
1
, y
2
, . . . , y
n
) puntos de R
n
, llamaremos recta por P
y Q al siguiente conjunto de puntos de R
n
:
(z
1
, z
2
, . . . , z
n
) : z
i
= x
i
+(y
i
x
i
), i = 1, 2, . . . , n, < <
Llamaremos segmento PQ a la totalidad de los puntos de la recta por P y Q para los
cuales 0 1.
Los puntos P y Q del segmento PQ se llaman los puntos extremos del segmento. El
segmento PQ se dice dirigido si a uno de los puntos extremos P, Q lo llamamos punto
inicial y al otro, punto nal. Si el punto inicial es P el segmento dirigido se designa
por
PQ, si el punto inicial es Q se designa por
QP. A los segmentos dirigidos los
llamaremos vectores en R
n
, a las n diferencias y
i
x
i
, i = 1, 2, . . . , n, las llamaremos
las componentes del vector
PQ. Seg un esta denicion x
i
y
i
, i = 1, 2, . . . , n, son las
componentes del vector
QP. Dos vectores se dicen iguales si y solo si sus componentes
correspondientes son iguales. De acuerdo a esta denicion de igualdad de vectores,
dos vectores que dieren tanto en su punto inicial como en su punto nal pueden ser
iguales, pero una vez elegido arbitrariamente el punto inicial P = (x
1
, x
2
, . . . , x
n
), si
a
1
, a
2
, . . . , a
n
son las componentes del vector, su punto nal Q = (y
1
, y
2
, . . . , y
n
)
queda unicamente determinado por las ecuaciones
y
i
= x
i
+a
i
i = 1, 2, . . . , n
Si un vector tiene componentes a
1
, a
2
, . . . , a
n
lo designaremos por a
1
, a
2
, . . . , a
n
a.
La expresion 0, 0, . . . , 0, la cual no recibe signicado de las deniciones anteriores se
llama vector nulo y se designa por
0.
63
64 CAP
ITULO 4. VECTORES EN R
N
Sean a = a
1
, a
2
, . . . , a
n
,
b = b
1
, b
2
, . . . , b
n
dos vectores, queremos denir la suma
de ellos, la cual se designara por a +
b:
Elijamos arbitrariamente el punto inicial P de a, sea Q su punto nal. Elegimos co-
mo punto inicial de
b a Q, sea R su punto nal. Llamaremos vector suma de a y
b
al vector
PQ+
QR =
PR.
Sea P = (x
1
, x
2
, . . . , x
n
) entonces Q = (y
1
, y
2
, . . . , y
n
) esta dado por
y
i
= x
i
+a
i
i = 1, 2, . . . , n
y R = (z
1
, z
2
, . . . , z
n
) esta dado por
z
i
= y
i
+b
i
i = 1, 2, . . . , n.
Entonces z
i
= x
i
+a
i
+b
i
luego
PR es el vector cuyas componentes son a
1
+b
1
, a
2
+
b
2
, . . . , a
n
+b
n
. As se tiene que
a
1
, a
2
, . . . , a
n
+b
1
, b
2
, . . . , b
n
= a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
Es claro que la suma es conmutativa, asociativa, tiene una identidad unica que es el
vector nulo y cada vector tiene un unico inverso aditivo.
Denimos el producto del vector a = a
1
, a
2
, . . . , a
n
por el n umero real como el
vector
a a = a
1
, a
2
, , a
n
,
operacion que tiene las siguientes propiedades:
i.- 1 a =a
ii.- (a) = a
iii.- (a +
b) = a +
b
iv.- ( +)a = a +a
Tambien se tiene que
a =
0 = 0 o a =
0
Sean a = a
1
, a
2
, . . . , a
n
,
b = b
1
, b
2
, . . . , b
n
. Al n umero real
n
i=1
a
i
b
i
lo llamaremos
producto escalar de a y
b, lo designaremos por a
b.
Es claro que
a
b =
b a
(a
b) = (a)
b =a (b)
a (
b +c) =a
b +a c
4.2. SUBESPACIOS DE VECTORES EN R
N
65
y que a
b = 0 no implica necesariamente a =
0 o
b =
0. Si a
b = 0 decimos que a y
b
son mutuamente ortogonales.
Diremos que los p vectores a
1
, a
2
, . . . , a
p
son l.d. si hay reales no todos nulos
1
,
2
,
. . . ,
p
tales que
p
i=1
i
a
i
=
0 ,
esto es, si existe una combinacion lineal no trivial de ellos que es igual al vector nulo.
En caso contrario diremos que son l.i. Las propiedades de la relacion de dependencia
o independencia lineal entre vectores son analogas a las denidas en R
n
por lo tanto
no insistiremos en enunciarlas o demostralas, simplemente las usaremos.
Notacion: Llamaremos V al conjunto de los vectores en R
n
premunido de las opera-
ciones de suma y multiplicaci on por un n umero.
A los vectores e
1
= 1, 0, . . . , 0, e
2
= 0, 1, . . . , 0, . . . , e
n
= 0, 0, . . . , 1 los llamare-
mos la base estandar de V . Ellos son claramente l.i.
4.2. Subespacios de vectores en R
n
Denicion 4.1 Sea L V , L ,= . Diremos que L es un subespacio de V si
i.- cada que a L y es un n umero real arbitrario entonces a L.
ii.- cada que a,
b L (a y
b no necesariamente distintos) entonces a +
b L.
Nota: Si L es un subespacio,
0 L.
Sean a
1
, a
2
, . . . , a
p
vectores en V . Sea
L = a : a =
p
i=1
i
a
i
,
i
R i = 1, 2, . . . , p ,
esto es, el conjunto de todas las combinaciones lineales de los vectores a
1
, a
2
, . . . , a
p
.
Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que a
1
, a
2
, . . . , a
p
H entonces
n
i=1
i
a
i
H luego L H. Se concluye que L es el subespacio mas peque no
que contiene a los vectores a
1
, a
2
, a
3
, . . . , a
p
. Diremos que L es el subespacio generado
por los vectores a
1
, a
2
, . . . , a
p
.
Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean a
1
, a
2
, . . . , a
p
vectores
arbitrarios en V , sea L el subespacio generado por ellos. Sean
b
1
,
b
2
, . . . ,
b
q
q vectores
l.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto a
1
, a
2
, . . . , a
p
tal que el conjunto de los vectores restantes unido al conjunto
b
1
,
b
2
, . . . ,
b
q
tambien
genera a L.
66 CAP
ITULO 4. VECTORES EN R
N
Demostracion: Demostraremos el teorema por induccion. Si ning un vector
b
1
,
b
2
,
. . . ,
b
q
se ha dado, o sea q = 0, el teorema es cierto. Supongamos que q > 0 y que
el teorema ha sido demostrado para los primeros q 1 vectores
b
i
. Supongamos que
numeramos los vectores a
1
, a
2
, . . . , a
p
de manera tal que los vectores reemplazados
son a
1
, a
2
, . . . , a
q1
, esto es, de modo tal que L sea generado por
b
1
,
b
2
, . . . ,
b
q1
, a
q
,
. . . , a
p
. Como
b
q
L
b
q
=
q1
i=1
b
i
+
p
i=q
i
a
i
donde
q
,
q+1
, . . . ,
p
no pueden ser todos nulos. Supongamos que
q
,= 0, entonces
a
q
=
1
b
q
1
q
q1
i=1
b
i
1
q
p
i=q+1
i
a
i
=
1
b
q
q1
i=1
b
i
p
i=q+1
q
a
i
Sea c L arbitrario, por la hipotesis de induccion
c =
q1
i=1
b
i
+
p
i=q
i
a
i
,
sustituyendo a
q
se tiene
c =
q1
i=1
(
i
q
q
)
b
i
+
q
b
q
+
p
i=q+1
(
i
q
q
)a
i
.
Esto demuestra que
b
1
,
b
2
, . . . ,
b
q
, a
q+1
, . . . , a
p
generan a L.
Nota: Sean
b
1
,
b
2
, . . . ,
b
q
, q > p, vectores arbitrarios en L. Si ellos fuesen l.i. po-
dramos aplicar el teorema anterior y reemplazar a
1
, a
2
, . . . , a
p
por
b
1
,
b
2
, . . . ,
b
p
de
modo que
b
1
,
b
2
, . . . ,
b
p
generan a L y por lo tanto
b
p+1
, . . . ,
b
q
son combinaciones
lineales de ellos, lo cual es contradiccion.
Se concluye que en L un conjunto l.i. de vectores no puede tener mas de p vectores y
por lo tanto se tiene que en V cualquier conjunto de mas de p combinaciones lineales
de p vectores dados es siempre l.d.
Si a = a
1
, a
2
, . . . , a
n
, a =
n
i=1
a
i
e
i
. Se tiene que V es generado por el conjunto l.i.
e
1
, e
2
, . . . , e
n
. Aplicando la observacion anterior tomando a e
1
, e
2
, . . . , e
n
como los
vectores dados, p = n, conclumos que cualquier conjunto de mas de n vectores en V
es l.d.; un conjunto l.i. de vectores en V puede contener a lo mas n vectores.
Esta observacion permite dar la siguiente
Denicion 4.3 Sea L un subespacio cualquiera de V , supongamos que en L hay p
vectores l.i., 0 p n, y que cualquier conjunto de mas de p vectores en L es l.d.
Diremos que L tiene dimension p. Si p = 0 entonces L = 0.
Supongamos que L tiene dimension p > 0, sean a
1
, a
2
, . . . , a
p
vectores l.i. en L. Si
b L, el conjunto a
1
, a
2
, . . . , a
p
,
b es l.d., hay
1
,
2
, . . . ,
p
,
p+1
no todos nulos
tales que
p
i=1
i
a
i
+
p+1
b = 0 .
4.2. SUBESPACIOS DE VECTORES EN R
N
67
Si
p+1
= 0 obtenemos una contradiccion, luego
p+1
,= 0 y
b es una combinacion
lineal de a
1
, a
2
, . . . , a
p
; cualquier conjunto l.i. de p vectores en L genera a L.
Si L tiene dimension p, diremos que cualquier conjunto l.i. de p vectores en L es una
base de L.
Sea a
1
, a
2
, . . . , a
p
una base de L, sea
b L arbitrario, supongamos que
b puede
representarse de dos maneras distintas como combinacion lineal de los vectores a
1
, a
2
,
. . . , a
p
, esto es,
b =
n
i=1
i
a
i
=
n
i=1
i
a
i
,
entonces
i
=
i
, i = 1, 2, . . . , n (los vectores a
1
, a
2
, . . . , a
p
son l.i.). Cada
b L tiene
una unica representacion en terminos de una base.
Teorema 4.4 Sea L el subespacio generado por los vectores a
1
, a
2
, . . . , a
q
. La di-
mension de L es igual al n umero maximo de vectores l.i. que hay entre los vectores a
1
,
a
2
, . . . , a
q
.
Demostracion: Sea p dicho n umero maximo, supongamos que los vectores dados han
sido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores
a
1
, a
2
, . . . , a
p
, a
p+k
, con 1 k q p, es l.d. luego a
p+k
es una combinacion lineal
de a
1
, a
2
, . . . , a
p
a
p+k
=
p
i=1
(k)
i
a
i
; k = 1, 2, . . . , q p (4.1)
Sea
b L, entonces
b =
q
i=1
i
a
i
, reemplazando a
p+1
, a
p+2
, . . . , a
q
por sus expresiones
(4.1) vemos que
es igual a la de L.
Entonces si a
1
, a
2
, . . . , a
p
es una base de L
y a L, entonces L
= L.
Luego si L
es
menor que la de L.
Teorema 4.5 Sea L un subespacio de dimension p, sean
b
1
,
b
2
, . . . ,
b
k
un conjunto
arbitrario de vectores l.i. en L, k p. Entonces
b
1
,
b
2
, . . . ,
b
k
puede ser extendido a
una base de L agregando de manera ordenada p k vectores a
k+1
, a
k+2
, . . . , a
p
(de
modo que
b
1
,
b
2
, . . . ,
b
k
, a
k+1
, . . . , a
p
sea un conjunto l.i.).
Demostracion: Sea a
1
, a
2
, . . . , a
p
una base de L. Por el teorema de Steinitz (podemos
suponer los a
1
, a
2
, . . . , a
p
adecuadamente ordenados) podemos reemplazar a
1
, a
2
, . . . ,
68 CAP
ITULO 4. VECTORES EN R
N
a
k
por
b
1
,
b
2
, . . . ,
b
k
de modo que el conjunto
b
1
,
b
2
, . . . ,
b
k
, a
k+1
, . . . , a
p
tambien
genera a L. Pero dimL = p luego, por el teorema anterior,
b
1
,
b
2
, . . . ,
b
k
, a
k+1
, . . . ,
a
p
es l.i.
Nota: Dados dos subespacios L
1
, L
2
, L
1
L
2
es siempre no vaco puesto que
0
L
1
L
2
. Es claro que si a L
1
L
2
, a L
1
y a L
2
luego a L
1
L
2
y si
a,
b L
1
L
2
, a +
b L
1
y a +
b L
2
luego a +
b L
1
L
2
. Conclumos que la
interseccion de dos subespacios es un subespacio.
Denicion 4.6 Sean L
1
, L
2
subespacios de V . Llamaremos suma de L
1
y L
2
a
L = c : c =a +
b, a L
1
,
b L
2
Claramente
0 =
0 +
0 luego L ,= .
Si c L, hay a L
1
,
b L
2
tales que c = a +
b. Pero a L
1
,
b L
2
, y por
denicion c = a +
b L.
Analogamente, si c
1
y c
2
L, hay a
1
, a
2
L
1
, y
b
1
,
b
2
L
2
tales que c
1
= a
1
+
b
1
,
c
2
=a
2
+
b
2
, entonces
c
1
+c
2
= (a
1
+a
2
) + (
b
1
+
b
2
) ,
a
1
+a
2
L
1
,
b
1
+
b
2
L
2
luego c
1
+c
2
L.
Se concluye que L es un subespacio en V llamado el subespacio suma de L
1
y L
2
, y se
denota por L = L
1
+L
2
.
Teorema 4.7 Sean L
1
y L
2
subespacios de V , dimL
1
= p
1
, dimL
2
= p
2
. Sea D =
L
1
L
2
, dimD = d. Sea S = L
1
+L
2
, dimS = s. Entonces p
1
+p
2
= d +s.
Demostracion: Sea a
1
, a
2
, . . . , a
d
una base de D. Extendemos esta base a una base
de L
1
agregando vectores
b
1
,
b
2
, . . . ,
b
q
donde q = p
1
d, y tambien la extendemos a
una base de L
2
agregando c
1
, c
2
, . . . , c
r
donde r = p
2
d.
Si a
1
L
1
entonces
a
1
=
d
i=1
i
a
i
+
q
i=1
b
i
y si a
2
L
2
entonces
a
2
=
d
i=1
i
a
i
+
r
i=1
i
c
i
Puesto que todo vector de S es de la forma a
1
+a
2
, todo vector de S es una combi-
nacion lineal del conjunto de vectores a
1
, a
2
, . . . , a
d
,
b
1
,
b
2
, . . . ,
b
q
, c
1
, c
2
, . . . , c
r
.
Queremos demostrar que esta coleccion es l.i. Supongamos que
d
i=1
i
a
i
+
q
i=1
b
i
+
r
i=1
i
c
i
=
0
4.2. SUBESPACIOS DE VECTORES EN R
N
69
Entonces
r
i=1
i
c
i
L
1
y como
r
i=1
i
c
i
L
2
se tiene que
r
i=1
i
c
i
D y por lo tanto
r
i=1
i
c
i
=
d
i=1
i
a
i
. Por construccion la coleccion a
1
, a
2
, . . . , a
d
, c
1
, c
2
, . . . , c
r
es l.i.
luego
i
= 0, i = 1, 2, . . . , r y
i
= 0, i = 1, 2, . . . , d y por lo tanto
d
i=1
i
a
i
+
q
i=1
b
i
=
0
Por identicas razones
i
= 0, i = 1, 2, . . . , d y
i
= 0, i = 1, 2, . . . , q. Se concluye que la
coleccion a
1
, a
2
, . . . , a
d
,
b
1
,
b
2
, . . . ,
b
q
, c
1
, c
2
, . . . , c
r
es l.i. y genera a S, por denicion
dimS = s = d +q +r = d +p
1
d +p
2
d .
Nota: Es claro que para cada natural n hay un R
n
y por lo tanto un V . Para n = 2,
V es lo que llamamos los vectores geometricos en el plano y para n = 3, V es lo
que llamamos los vectores geometricos en el espacio. De ahora en adelante a V lo
designaremos por V
n
.
Ejemplo: En V
4
sean
a
1
= 3, 1, 1, 2
a
2
= 4, 1, 2, 3
a
3
= 10, 3, 0, 7
a
4
= 1, 1, 7, 0
Sea L
1
el subespacio generado por a
1
, a
2
, a
3
, a
4
. Sean
b
1
= 2, 4, 3, 7
b
2
= 5, 2, 2, 1
Sea L
2
el subespacio generado por
b
1
,
b
2
. Encontrar las dimensiones de L
1
, L
2
, L
1
L
2
,
L
1
+L
2
.
Consideremos el sistema de vectores a
1
, a
2
, a
3
, a
4
y supongamos que a
1
+ a
2
+
a
3
+a
4
=
0, entonces
3 + 4 + 10 = 0
3 + = 0
2 7 = 0
2 + 3 + 7 = 0
Sea
A =
_
_
_
_
3 4 10 1
1 1 3 1
1 2 0 7
2 3 7 0
_
_
_
_
70 CAP
ITULO 4. VECTORES EN R
N
la matriz del sistema. Puesto que la cuarta la es suma de las dos primeras ella tiene
el mismo rango que
A
1
=
_
_
_
_
3 4 10 1
1 1 3 1
1 2 0 7
0 0 0 0
_
_
_
_
la cual tiene el mismo rango que
A
2
=
_
_
_
_
0 1 1 2
1 1 3 1
0 3 3 6
0 0 0 0
_
_
_
_
la cual tiene rango 2, luego rango A = 2 y como
3 4
1 1
b
1
+b
2
=
0
2 + 5 = 0
4 + 2 = 0
3 + 2 = 0
7 = 0
Sumando las tres ultimas se tiene que necesariamente = 0 luego el sistema tiene solo
la solucion trivial, dimL
2
= 2.
Todo vector de L
1
es de la forma a
1
+a
2
, todo vector de L
2
es de la forma
b
1
+
b
2
.
Se concluye que S = L
1
+L
2
es el subespacio generado por a
1
, a
2
,
b
1
,
b
2
. Supongamos
que
a
1
+a
2
+
b
1
+
b
2
=
0
La matriz del sistema es
A =
_
_
_
_
3 4 2 5
1 1 4 2
1 2 3 2
2 3 7 1
_
_
_
_
la cual tiene el mismo rango que
A
1
=
_
_
_
_
0 1 10 11
1 1 4 2
0 3 7 4
0 1 1 3
_
_
_
_
la cual tiene el mismo rango que
A
2
=
_
_
_
_
1 1 4 2
0 1 10 11
0 3 7 4
0 1 1 3
_
_
_
_
4.3. VARIEDADES LINEALES 71
y esta a su vez el mismo rango que
A
3
=
_
_
_
_
1 1 4 2
0 1 10 11
0 0 37 37
0 0 9 8
_
_
_
_
y que
A
4
=
_
_
_
_
1 1 4 2
0 1 10 11
0 0 1 1
0 0 9 8
_
_
_
_
y que
A
5
=
_
_
_
_
1 1 4 2
0 1 10 11
0 0 1 1
0 0 0 1
_
_
_
_
y trabajando por columnas
A
6
=
_
_
_
_
1 1 2 2
0 1 1 11
0 0 0 1
0 0 1 1
_
_
_
_
, A
7
=
_
_
_
_
1 1 2 2
0 1 1 11
0 0 1 1
0 0 0 1
_
_
_
_
El determinante de A
7
es
det A
7
=
1 1 11
0 1 1
0 0 1
1 1
0 1
= 1
luego rango A = 4 luego la dimension de S es igual a 4.
Se concluye que como dimL
1
+ dimL
2
= dimL
1
L
2
+ dimL
1
+ L
2
entonces la
dimension de L
1
L
2
es 0.
4.3. Variedades lineales
Habamos denido la recta por los puntos P = (x
1
, x
2
, . . . , x
n
), Q = (y
1
, y
2
, . . . , y
n
) de
R
n
como el conjunto de los puntos (z
1
, z
2
, . . . , z
n
) R
n
tales que
z
i
= x
i
+(y
i
x
i
) i = 1, 2, . . . , n , < < .
Sea a =
PQ = y
1
x
1
, y
2
x
2
, . . . , y
n
x
n
, entonces a V
n
. Llamaremos R =
(z
1
, z
2
, . . . , z
n
). De la denicion de recta y de la denicion de igualdad de vectores
tenemos que
PR =
PQ.
Como para cada valor de obtenemos un punto R de la recta, obtenemos el punto R
correspondiente al valor copiando al vector
ITULO 4. VECTORES EN R
N
subespacio L a partir de P. Es motiva la siguiente denicion:
Llamaremos variedad lineal de dimension p a la totalidad de los puntos R R
n
obtenidos de copiar los vectores de un subespacio L de V
n
a partir de un punto jo
P R
n
. Decimos que los puntos R de la variedad se obtienen aplicando el subespa-
cio L en P. En otras palabras, los puntos R de la variedad son los extremos nales de
los vectores de L representados como segmentos dirigidos cuyo punto inicial es P.
Ejemplo: Sea L un subespacio de dimension 2 de V
3
, donde interpretamos R
3
como
el espacio fsico ordinario. Sea a,
b una base de L, sea P un punto jo del espacio.
Copiamos a y
b con punto inicial P, sean Q y R sus puntos nales respectivamente.
Como a y
b son l.i., P, Q, R determinan un plano en el espacio. Armamos que
la variedad lineal de dimension 2 obtenida de aplicar L en P es el plano del espa-
cio fsico ordinario. En efecto, el punto S obtenido de aplicar a en P esta en y
Q
S
P
T R
Z
analogamente el punto T obtenido de aplicar
b,
sea Z el punto obtenido de aplicar a +
b en
P. Por denicion de suma de vectores, para
obtener a +
b copiamos arbitrariamente a
a partir de P y luego copiamos
b a partir de
S (o podemos aplicar
b en P y luego a en
T), es claro que Z . A la inversa, dado Z , trazando paralelas por Z a a y
b
podemos encontrar S y T (o sea y ) luego todo punto Z puede ser encontrado
por este metodo.
Nota: Una variedad lineal de dimension 0 se obtiene aplicando L =
0 en P, o
sea es simplemente un punto. Una variedad lineal de dimension 1 es una recta, una
variedad lineal de dimension 2 es un plano, una variedad lineal de dimension n 1 es
un hiperplano. Todos los puntos de una variedad lineal son equivalentes en el siguiente
sentido: si tomamos otro punto Q de la variedad y aplicamos L en Q obtenemos la
misma variedad, en efecto, sea Q otro punto de la variedad, sea Z un punto arbitrario
de ella. Entonces hay z L tal que z =
PZ. Tambien hay q L tal que q =
PQ. Pero
PQ +
QZ =
PZ luego q +
QZ = z,
QZ = z q. Pero z q L luego Z se obtiene
aplicando z q en Q.
Nota: En R
n
consideremos el punto O = (0, 0, . . . , 0). Si P = (x
1
, x
2
, . . . , x
n
) es otro
punto cualquiera de R
n
, podemos obtener P aplicando el vector x
1
, x
2
, . . . , x
n
de
V
n
en O. Como V
n
es un subespacio de s mismo, podemos concluir que R
n
es una
variedad lineal de dimension n.
Sea M la variedad lineal obtenida aplicando el subespacio L de dimension p > 0. Sea
P
0
M, sea a
1
, a
2
, . . . , a
p
una base de L. Sea P M, entonces
P
0
P L y hay
n umeros reales y
1
, y
2
, . . . , y
p
tales que
P
0
P =
p
i=1
y
i
a
i
.
Es claro que como
P
0
P tiene una unica expresion en la base a
1
, a
2
, . . . , a
p
, el juego
de n umeros reales y
1
, y
2
, . . . , y
p
es unico.
4.3. VARIEDADES LINEALES 73
Denicion 4.8 Diremos que el punto P
0
y la base a
1
, a
2
, . . . , a
p
de L constituyen un
sistema afn de coordenadas en M cuyo origen es P
0
y tal que las direcciones de los
ejes coordenados estan dadas por a
1
, a
2
, . . . , a
p
. Lo anotaremos por (P
0
, a
1
, a
2
, . . . , a
p
).
Diremos que el juego de n umeros y
1
, y
2
, . . . , y
p
son las coordenadas del punto P M
con respecto al sistema de coordenadas (P
0
, a
1
, a
2
, . . . , a
p
).
Es as como cada punto P M puede ser representado por una p-tupla (y
1
, y
2
, . . . , y
p
)
de n umeros reales y es claro que dado el sistema de coordenadas la correspondencia
entre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P
0
, o la base de L
o ambos, el mismo punto P M esta representado por otra p-tupla de n umeros reales.
Teorema 4.9 Sean P
0
, P
1
, . . . , P
p
puntos en R
n
tales que ellos no estan todos en
ninguna variedad lineal de dimension menor que p. Entonces existe una unica variedad
lineal M de dimension p que los contiene.
Demostracion: Sean P
k
= (x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
), k = 0, 1, . . . , p, tales que no estan
todos en ninguna variedad lineal de dimension menor que p. Sean
k
=
P
0
P, k =
1, 2, . . . , p. Si ellos fuesen l.d. el subespacio L generado por ellos tendra dimension
menor que p. Al aplicar L en P
0
obtendramos una variedad lineal M de dimension
menor que p que los contiene a todos, luego ellos son l.i. y por lo tanto el subespacio
L generado por ellos tiene dimension p.
Al aplicar L en P
0
obtenemos una variedad lineal M de dimension p que contiene a
P
0
, P
1
, . . . , P
p
. Sea M
de dimension p en cualquiera
de sus puntos, por ejemplo P
0
. Se concluye que
1
,
2
, . . . ,
k
pertenecen a L
, como
ellos son l.i. y dimL
= dimL = p entonces L = L
y por lo tanto M = M
.
Diremos que M es la variedad lineal determinada por los p +1 puntos P
0
, P
1
, . . . , P
p
.
Sea P = (x
1
, x
2
, . . . , x
n
) un punto arbitrario de ella. Entonces
P
0
P =
p
k=1
k
k
= x
1
x
(0)
1
, x
2
x
(0)
2
, . . . , x
n
x
(0)
n
y
k
= x
(k)
1
x
(0)
1
, x
(k)
2
x
(0)
2
, . . . , x
(k)
n
x
(0)
n
k = 1, 2, . . . , p
luego
x
1
x
(0)
1
, x
2
x
(0)
2
, . . . , x
n
x
(0)
n
=
p
k=1
k
x
(k)
1
x
(0)
1
, x
(k)
2
x
(0)
2
, . . . , x
(k)
n
x
(0)
n
=
_
p
k=1
k
(x
(k)
1
x
(0)
1
), . . . ,
p
k=1
k
(x
(k)
n
x
(0)
n
)
_
Aplicando la denicion de igualdad de vectores se tiene que
x
i
x
(0)
i
=
p
k=1
k
(x
(k)
i
x
(0)
i
) i = 1, 2, . . . , n
x
i
=
p
k=1
k
x
(k)
i
+x
(0)
i
_
1
p
k=1
k
_
74 CAP
ITULO 4. VECTORES EN R
N
Llamamos
0
= 1
n
k=1
k
entonces
p
k=0
k
= 1 y
x
i
=
p
k=0
k
x
(k)
i
i = 1, 2, . . . , n (4.2)
Si P M, existen n umeros reales
0
,
1
, . . . ,
p
tales que
p
k=0
k
= 1 y las coordenadas
de P pueden ser representadas en la forma (4.2). Como la expresion del vector
P
0
P
en la base
1
,
2
, . . . ,
p
es unica, el juego
0
,
1
, . . . ,
p
es unico.
A la inversa, dados
0
,
1
, . . . ,
p
tales que
p
k=0
k
= 1, entonces el punto P cuyas
coordenadas estan dadas por (4.2) esta en la variedad M porque el punto determinado
por
P
0
P =
p
k=0
k
k
esta en M.
Se concluye que los puntos de M estan determinados por (4.2) de modo que a cada
juego de n umeros
0
,
1
, . . . ,
p
tales que
p
k=0
k
= 1 le corresponde exactamente un
punto de M.
Nota: Sean M y M
. Si D ,= , sea P
0
D. Si D = P
0
entonces necesariamente
L L
0. Supongamos que L L
y ,=
0, entonces L y el punto P tal
que
P
0
P = esta en M, por razon analoga esta en M
luego P D. A la inversa,
supongamos que D tiene mas de un punto, sea P D,
P
0
P LL
luego el punto P
se obtiene aplicando un vector de L L
en P
0
. Entonces D = M M
es la variedad
lineal obtenida aplicando el subespacio LL
dos subespacios
que las generan. Diremos que M y M
o bien
L
L.
Teorema 4.11 Sean M y M
= o bien M M
o M
M.
Demostracion: Supongamos que MM
,= , sea L L
, entonces LL
= L luego
M M
= M luego M M
.
Ejemplo: Demuestre que tres vectores en V
3
son l.d. si y solo si ellos son paralelos
a un mismo plano.
4.3. VARIEDADES LINEALES 75
Sean ,
, V
3
, sea M un plano en R
3
generado por el subespacio L de dimension
dos aplicado en un punto P
0
R
3
. Diremos que es paralelo al plano M si para alg un
P M se tiene
P
0
P = . Supongamos que ,
, son paralelos a M. Entonces hay
P, Q, R M tales que =
P
0
P,
=
P
0
Q, =
P
0
R. Si ,
, son l.i. entonces M
tiene dimension tres, luego ,
, son l.d.
Sean ,
, vectores en V
3
, sean ellos l.d. Entonces hay , , no todos nulos tales
que
+
+ =
0 .
Supongamos que ,= 0 entonces =
.
Caso 1: Si =
, sea P
0
R
3
arbitrario. Sea P R
3
tal que
P
0
P =
. Sea Q
tal que
P
0
P,
P
0
Q son l.i. Entonces P
0
, P, Q determinan un plano M. Sea R tal que
P
0
R =
. R esta en M, entonces
, son paralelos a M. Por otro lado es de la
forma = , en forma analoga a , tambien es paralelo a M.
Caso 2: Si
y son l.i., sea P
0
R
3
arbitrario, sea L el subespacio generado por
y
. Sea M el plano obtenido de aplicar L en P
0
. Como es combinacion lineal de
y
, L, luego ,
, son paralelos a M.
Ejemplo: Sea M una variedad lineal en R
n
, sean P, Q puntos de M. Demuestre que
la recta por P y Q esta contenida en M. A la inversa, sea M tal que si R y S pertenecen
a M, la recta por R y S esta contenida en M. Demuestre que M es una variedad lineal.
Sea P = (x
1
, x
2
, . . . , x
n
), sea Q = (y
1
, y
2
, . . . , y
n
), sea L el subespacio que genera a M.
Un punto R esta sobre la recta si y solo si
PR =
PQ L, por denicion,
R M.
A la inversa, sea M R
n
con esta propiedad, sea P
0
M. Sea L el conjunto de los
vectores de V
n
tales que de su aplicacion en P
0
se obtienen puntos en M, esto es,
L = V
n
: =
P
0
P, P M
L es no vaco pues
0 =
P
0
P
0
L. Sea L, sea un n umero cualquiera. Sea P M
tal que =
P
0
P. El punto que resulta de aplicar en P
0
esta en la recta por P
0
y
P, luego por hipotesis esta en M. Por lo tanto L.
Sean ,
L, sean P, Q M tales que =
P
0
P,
=
P
0
Q. Sea = +
una
combinacion lineal de ellos dos. Si ,
son l.d., puede expresarse como combinacion
lineal de solo uno de ellos y ya se demostro que en tal caso esta en L. Supongamos
entonces que son l.i. Consideremos dos casos.
Caso 1: Si es de la forma = (
) sea R el punto dado por
P
0
R =
P
0
Q.
Puesto que R esta en la recta por Q y por P
0
, R esta en M. Sea S el punto dado
por
PS =
1
2
PR, punto que esta en la recta por P y R y que por lo tanto esta en M.
Finalmente sea T tal que
P
0
T = 2
P
0
S. T esta en la recta que une P
0
con S luego
esta en M, y ademas
P
0
T = 2(
P
0
P +
PS) = 2(
1
2
P
0
P +
1
2
(
P
0
P +
PR)) = ( +
P
0
R) = (
) =
76 CAP
ITULO 4. VECTORES EN R
N
luego L.
Caso 2: El caso + = 0 es el caso anterior, luego supongamos que + ,= 0. Sea R
un punto en la recta que une a P con Q dado por
PR =
+
PQ.
Sea S en la recta por P
0
y R dado por
P
0
S = ( +)
P
0
R. S M y
P
0
S = ( +)
P
0
P +
+
(
PP
0
+
P
0
Q)
= ( +) +
= +
=
luego L.
Por lo tanto, L es un subespacio de V
n
y M es una variedad lineal de R
n
.
Ejemplo: Sea M una variedad lineal en R
n
de dimension menor que n, sea P
0
un
punto fuera de M. Sea N el conjunto de los puntos de R
n
que estan sobre alguna recta
que une un punto de M con P
0
. ? Es N una variedad lineal?
Sea p = dimM, p < n. Si p = 0 M consiste de un solo punto y por lo tanto N es la
recta que une ese punto con P
0
, luego N es una variedad lineal.
No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es una
variedad lineal, sea L el subespacio que genera a M, L
, y
sea T dado por
P
0
T =
P
0
S = (
P
0
R
0
+
R
0
S) = +
. Como
+
esta tambien en L
se tiene que 2
P
0
Q. Pero
en tal caso se tiene que
R
0
P
0
=
R
0
Z +
ZP
0
=
R
0
Z 2 L
luego P
0
M y esto no puede ser.
Sea N
el conjunto que resulta de unir N con la variedad lineal que resulta de aplicar
L en P
0
. N
P
0
R. Pero
P
0
R
0
+
R
0
R =
P
0
R. Como
R
0
R =
p
i=1
a
i
i
,
P
0
Q =
_
0
+
p
i=1
a
i
i
_
4.3. VARIEDADES LINEALES 77
luego
P
0
Q =
p
i=0
b
i
i
. Sea L
en P
0
.
A la inversa, sea
=
p
i=0
b
i
i
un vector cualquiera de L
, apliquemos
en P
0
y sea
Q R
n
tal que
=
P
0
Q. Consideremos la recta por P
0
y Q. Sea R un punto arbitrario
de dicha recta, entonces
P
0
R =
=
P
0
R
0
+
R
0
R luego
R
0
R =
p
i=0
b
i
i
0
= (b
0
1)
0
+
p
i=1
b
i
i
.
Si b
0
= 0,
L, luego Q esta en la variedad que resulta de copiar L en P
0
y por lo
tanto esta en N
. Si b
0
,= 0, para =
1
b
0
se tiene que R M luego Q N.
Ejemplo: Sea M una variedad lineal en R
n
de dimension menor que n, sea P
0
un
punto fuera de M, sea un real jo. Sea N R
n
tal que S N si y solo si hay
Q M tal que
P
0
S =
P
0
Q. Es N una variedad lineal?
Si = 0 N consiste en el punto P
0
y por ende es una variedad lineal. Supongamos
entonces que ,= 0.
Sea S
0
un punto jo de N, S un punto arbitrario de n. Sean Q
0
, Q M tales que
P
0
S
0
=
P
0
Q
0
,
P
0
S =
P
0
Q. Sea L el subespacio que genera a M. Entonces
P
0
S
P
0
S
0
= (
P
0
Q
P
0
Q
0
)
luego
S
0
S =
Q
0
Q. Pero
Q
0
Q L luego S se obtiene aplicando un vector de L en S
0
.
A la inversa, sea L, queremos demostrar que al aplicar en S
0
obtenemos un
punto S N. En efecto, si Q es el punto que resulta de copiar
1
en Q
0
(punto que
esta en M) tenemos que
P
0
Q = (
P
0
Q
0
+
Q
0
Q) =
P
0
S
0
+
luego
P
0
S =
P
0
Q y S N.
Entonces N es una variedad lineal paralela a M obtenida de aplicar L en S
0
.
Ejemplo: Sean L
1
y L
2
rectas distintas en R
n
. Sean P y Q puntos arbitrarios de L
1
y L
2
respectivamente. Sea L la recta por P y Q. Considere la union M de todas las
rectas L (consideradas como conjuntos de puntos en R
n
). Es M una variedad lineal?
Caso 1: L
1
L
2
,= . Sea la direccion de L
1
y
la direccion de L
2
. Supongamos que
hay mas de un punto en la interseccion, por ejemplo O
1
y O
2
. Entonces hay
1
,
2
,
1
y
2
tales que
P
0
O
1
=
1
P
0
O
2
=
2
O
1
O
2
= (
2
1
)
Q
0
O
1
=
1
Q
0
O
2
=
2
O
1
O
2
= (
2
1
)
78 CAP
ITULO 4. VECTORES EN R
N
Pero ,
son l.i. entonces
1
=
2
,
1
=
2
, luego no puede haber mas que un punto
en L
1
L
2
.
Sea entonces O el punto de interseccion de L
1
y L
2
. Sea R M, entonces para alg un
P L
1
y alg un Q L
2
se tiene
PR = r
PQ. Como P L
1
y Q L
2
hay y tales
que
OP = y
OQ =
, entonces
OR =
OP +
PR = +r
PQ
OR +r
OP = +r
OP +r
PQ = +r
OR = r +r
= (1 r) +r
OZ =
OP +
PZ = +t
PR = +t(
p
) = +t[ +
p
]
Z L
2
si y solo si +t(
p
) = 0 luego hay un unico Z
0
en la recta por P y R que
esta sobre L
2
. Se concluye que R esta sobre la recta por P y Z
0
, esto es, R M. Por
lo tanto, M es la variedad lineal obtenida aplicando H en O.
Caso 2: L
1
y L
2
son paralelas, =
. Sean O
1
L
1
, O
2
L
2
puntos jos de L
1
y L
2
respectivamente. Sea =
O
1
O
2
, sea P L
1
, Q L
2
, sea R un punto cualquiera de la
recta por P y Q. Entonces
PR = r
PQ. Ademas
O
1
P = y
O
2
Q = para alg un
par de valores de y . Entonces + = +
PQ luego
PQ = +() y como
O
1
P +
PR =
O
1
R se tiene que +r
PQ =
O
1
R,
O
1
R = +r + ( ) ,
si H es el subespacio generado por y , R se obtiene aplicando un vector de H en O
1
.
Analogamente al primer caso, al aplicar un vector H en O
1
obtenemos un punto
de M. M es la variedad lineal obtenida de aplicar H en O
1
.
Caso 3: L
1
y L
2
se cruzan. Si M fuese una variedad de dimension dos, ella es un
plano que contiene a L
1
y L
2
. Entonces L
1
y L
2
seran coplanares y no paralelos luego
tendran un punto com un, as que M no puede ser una variedad de dimension dos. Sea
la direccion de L
1
,
la de L
2
. Sea O
1
L
1
, sea O
2
L
2
, sea =
O
1
O
2
. Entonces ,
pero no en M luego M ,= M
. Si M M
y M ,= M
. Se
concluye que M no es una variedad lineal.
4.4. Subespacios de soluciones
Consideremos un sistema homogeneo de s ecuaciones lineales con n incognitas, sea r el
rango de la matriz del sistema. Entonces sus soluciones constituyen un subespacio de
V
n
. Puesto que hay n r soluciones fundamentales ellas son una base del subespacio
el cual tiene entonces dimension n r.
Puesto que las soluciones de un sistema no homogeneo se obtienen sumando a una
solucion dada del sistema todas las soluciones del correspondiente sistema homogeneo,
podemos reeinterpretar este resultado en lenguaje geometrico de la siguiente manera:
Sea (x
1
, x
2
, . . . , x
n
) una solucion del sistema no homogeneo. La interpretaremos como
un punto P R
n
. Sea = y
1
, y
2
, . . . , y
n
una solucion del correspondiente sistema
homogeneo, sabemos que hay Q R
n
tal que =
PQ. Si O R
n
esta dado por
O = (0, 0, . . . , 0) entonces
OP = x
1
, x
2
, . . . , x
n
es una solucion vectorial del sistema.
Pero
OP +
PQ =
OQ = x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
,
luego el punto Q = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
) es una solucion del sistema no
homogeneo. Se concluye lo siguiente:
Sea L el subespacio de soluciones del correspondiente sistema homogeneo, sea M R
n
formado por todas las soluciones del sistema no homogeneo. Si P M, aplicando un
vector L en P obtenemos un punto Q M.
A la inversa, sea Q = (z
1
, z
2
, . . . , z
n
) M, si
= z
1
, z
2
, . . . , z
n
, = x
1
, x
2
, . . . , x
n
entonces
= z
1
x
1
, z
2
x
2
, . . . , z
n
x
n
L.
Pero + (
) =
OQ y
=
PQ luego el punto Q M se obtiene aplicando
en P.
M es la variedad lineal de dimension n r obtenida aplicando L en una solucion
P R
n
arbitraria del sistema no homogeneo.
Teorema 4.12 Sea L un subespacio de V
n
. Entonces existe un sistema lineal ho-
mogeneo con n incognitas tal que L es su espacio de soluciones.
Demostracion: Sea p = dimL. Sea
i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , p una base
de L, sea x = x
1
, x
2
, . . . , x
n
. Considere el sistema
i
x =
n
j=1
a
ij
x
i
= 0 i = 1, 2, . . . , p (4.3)
80 CAP
ITULO 4. VECTORES EN R
N
La matriz de (4.3) tiene rango p. Sea
p
j=1
j
j
L, sea x una solucion de (4.3).
Entonces
x
p
j=1
j
j
=
p
j=1
j
(x
j
) = 0 ,
si x es solucion de (4.3) entonces x es ortogonal a todos los vectores de L. A la inversa,
si x es ortogonal a todos los vectores de L, x es solucion de (4.3).
Notese que si x
1
, x
2
son ortogonales a L, x
1
+ x
2
es ortogonal a L luego L
, el
conjunto de los vectores de V
n
que son ortogonales a L es un subespacio de V
n
, que
coincide con el espacio de soluciones de (4.3) luego dimL
= n p.
Busquemos los vectores ortogonales a L
. Sea
i
, i = 1, 2, . . . , np una base de L
. Un
vector y = y
1
, y
2
, . . . , y
n
es ortogonal a L
si y solo si
i
y
i
= 0 i = 1, 2, . . . , n p (4.4)
Pero
1
,
2
, . . . ,
np
son en particular ortogonales a
1
,
2
, . . . ,
p
luego
1
i
= 0 ,
2
i
= 0 , . . . ,
np
i
= 0 i = 1, 2, . . . , p
(4.4) es un sistema homogeneo cuyas soluciones son todos los vectores ortogonales a
L
el subespacio de V
n
que consta de todos los vectores ortogonales a L. L
tiene dimension n p. Si
1
,
2
,
. . . ,
np
es una base de L
i
y = 0 i = 1, 2, . . . , n p , y = y
1
, y
2
, . . . , y
n
k=1
a
ik
k
, consideremos el sistema
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
(4.6)
Entonces las soluciones de (4.6) se obtienen aplicando el espacio de soluciones de (4.5)
en P. Notese que podemos encontrar un sistema (4.5) en que m = n p de modo que
(4.6) tenga exactamente n p ecuaciones.
82 CAP
ITULO 4. VECTORES EN R
N
Captulo 5
Consideraciones sobre
distancia y volumen en R
n
5.1. Metrica euclidiana
Denicion 5.1 Sean P = (x
1
, x
2
, . . . , x
n
), Q = (y
1
, y
2
, . . . , y
n
) puntos de R
n
. Lla-
maremos distancia entre P y Q a
PQ =
_
n
i=1
(y
i
x
i
)
2
_1
2
Es claro que PQ 0 y que PQ = 0 sii P = Q.
Notacion: Si a R
n
adjuntamos esta notacion de distancia, al producto obtenido lo
llamaremos espacio euclidiano n-dimensional.
Denicion 5.2 Dada la recta por P y Q
z
i
= x
i
+(y
i
x
i
) i = 1, 2, . . . , n < <
llamaremos longitud del segmento PQ (0 1) a la distancia entre P y Q.
Nota: Sea =
PQ = y
1
x
1
, y
2
x
2
, . . . , y
n
x
n
. La longitud del segmento dirigido
i=1
a
2
i
_1
2
,
| | se llama la norma de .
Notese que | | = 0 sii sus puntos extremos coinciden, esto es, | | = 0 sii =
0.
83
84 CAP
|
Demostracion: Supongamos primero que | | = |
| = 1. Como V
n
se tiene
| |
2
= 0, entonces
|
|
2
= (
) (
) = |
|
2
2
+| |
2
0
luego
1 (5.1)
Hay igualdad en (5.1) sii =
.
Sean ,
vectores arbitrarios distintos de
0, por (5.1)
| |
|
1 luego
| ||
| (5.2)
Es claro que (5.2) es verdadera si o
es
| (
) | ||
|
Si y
son tales que [
[ = | ||
| entonces
| |
= 1. Si
| |
|
= 1
entonces
| |
=
|
, si
| |
|
= 1,
( )
| |
|
= 1 y
| |
=
|
. Hay
igualdad sii =
| |
|
.
Teorema 5.5 (Desigualdad triangular) Sean P, Q, R tres puntos cualesquiera en
el espacio euclidiano R
n
. Entonces
PR PQ+QR
Demostracion: Sean
PQ = ,
QR =
, entonces
PR =
PQ+
QR luego
PR
2
= | +
|
2
= ( +
) ( +
) = | |
2
+ 2
+|
|
2
| |
2
+ 2| ||
| +|
|
2
= (| | +|
|)
2
PR | | +|
| = PQ+QR
Nota: Hemos demostrado mas que eso, si ,
V
n
entonces
| +
| | | +|
|
Cuando se produce igualdad?
Supongamos que Qpertenece al segmento PR. Sea P = (x
1
, x
2
, . . . , x
n
), R = (z
1
, z
2
, . . . , z
n
).
Entonces Q = (y
1
, y
2
, . . . , y
n
) es tal que
y
i
= x
i
+(z
i
x
i
) i = 1, 2, . . . , n 0 1
5.2. VOL
UMENES Y DETERMINANTES 85
Pero
z
i
y
i
= z
i
x
i
(y
i
x
i
) = (1 )(z
i
x
i
) i = 1, 2, . . . , n
PQ+QR = [[
_
n
i=1
(z
i
x
i
)
2
_1
2
+[1 [
_
n
i=1
(z
i
x
i
)
2
_1
2
= PR
porque 0 1 entonces [[ = , [1 [ = 1 .
A la inversa, si hay igualdad y alguno entre
PQ y
0 y
QR ,=
0. Hay
igualdad si
PQ
QR = |
PQ||
QR| luego
PQ
|
PQ|
=
QR
|
QR|
luego
PQ =
QR, > 0,
y
i
x
i
= (z
i
y
i
) i = 1, 2, . . . , n
y
i
=
x
i
+z
i
1 +
i = 1, 2, . . . , n
y
i
= x
i
+
+ 1
(z
i
x
i
) 0 < =
+ 1
< 1 ,
Q esta en el interior del segmento PR.
Denicion 5.6 Sean ,
distintos de
0. Llamaremos angulo entre y
, se
designa por ( ,
), al angulo tal que 0 denido por
cos =
| ||
|
.
Nota: La desigualdad de Cauhy-Schwarz garantiza que la denicion es correcta.
Nota: Sean ,
distintos de cero. Entonces cos = 0 sii
= 0. Decimos que y
son ortogonales. En R
n
euclideo, los vectores e
i
de la base estandar son mutuamente
ortogonales.
5.2. Vol umenes y determinantes
A B
C D
E
F
P
Queremos describir el parelogramo ABCD analtica-
mente. Sea P un punto interior al paralelogramo o
bien sobre alguno de sus lados. Por P tracemos par-
alelas a AB y AD respectivamente, sean E, F los
puntos de interseccion en AB y AD respectivamente.
AP =
AE +
EP =
AE +
AF
Pero
AE =
1
AB 0
1
1
AF =
2
AD 0
2
1
86 CAP
AB +
2
AD, 0
1
,
2
1.
A la inversa, si al aplicar el vector
1
AB +
2
i=1
i
i
,
0
i
1, i = 1, 2, . . . , n en A. Diremos que
1
,
2
, . . . ,
n
son las aristas del
paralelotopo.
Nuestro objetivo es denir el volumen de un paralelotopo n-dimensional, para esto
revisamos las propiedades esenciales que la nocion tiene en dos y tres dimensiones.
En primer lugar, debe ser invariante a traslaciones; por denicion, el paralelogramo
y el paraleleppedo son generados trasladando el punto jo A mediante los vectores
1
1
+
2
2
,
1
1
+
2
2
+
3
3
. Pedir que el volumen del paralelotopo sea invari-
ante a traslaciones es, en otras palabras, que area y volumen deben ser independientes
de la eleccion del punto A. Si elegimos otro punto, digamos B, el paralelogramo (par-
aleleppedo) resultante debe tener la misma area (volumen). Paralelogramos que tienen
los mismos lados deben tener la misma area, paraleleppedos con las mismas aristas
deben tener el mismo volumen.
El volumen del paralelotopo n-dimensional debe ser solo una funcion de las aristas, lo
anotaremos como V (
1
,
2
, . . . ,
n
).
Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectores
de la base estandar le asignaremos el volumen 1, esto es
V (e
1
, e
2
, . . . , e
n
) = 1
En R
n
eucldeo, los vectores e
1
, e
2
, . . . , e
n
tienen longitud uno y aristas mutuamente
ortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma lon-
gitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.
Es claro que debemos exigir V (
1
,
2
, . . . ,
n
) 0.
Paralelogramos equivalentes (bases de igual longitud y misma altura) tienen la misma
area, paralelelpedos equivalentes (bases de igual area y misma altura) tienen el mismo
5.2. VOL
UMENES Y DETERMINANTES 87
volumen. Veamos el signicado de esto en terminos de las aristas:
A B
C D E
a
1
a
2
a
1
a
2
+
ABCD y ABEC son equivalentes. Los par-
alelogramos cuyas aristas son
1
,
2
y
1
,
1
+
2
tienen la misma area.
A B
C D
E
a
1
a
2
F
G H
K
L
a
3
a
3
a
1
+
Los paraleleppedos ABCDEFGH y
ABCDFKLG son equivalentes. Los par-
aleppedos cuyas aristas son
1
,
2
,
3
y
1
,
2
,
1
+
3
tienen el mismo volumen.
Puesto que estas combinaciones se pueden
hacer con cualquier par de aristas (cualquier
cara puede ser elegida como base) probaremos
lo siguiente:
V (
1
,
2
, . . . ,
i
, . . . ,
n
) = V (
1
,
2
, . . . ,
i
+
k
, . . . ,
n
)
donde k ,= i, 1 k n.
Si en un paralelotopo de aristas
1
,
2
, . . . ,
n
reemplazamos la arista
i
, 1 i n
por
i
+
k
, 1 k n, k ,= i, el nuevo paralelotopo de aristas
1
,
2
, . . . ,
i
+
k
,
. . . ,
n
tiene el mismo volumen que el original.
A
B
C
D
E F
a
1
a
2
a
2
l
Consideremos los paralelogramos ABCD y ABEF de aris-
tas
1
,
2
y
1
,
2
, real.
Area ABCD
Area ABEF
=
AD
AF
=
|
2
|
|
2
|
=
1
[[
Pedimos entonces que
V (
1
,
2
, . . . ,
i
, . . . ,
n
) = [[V (
1
,
2
, . . . ,
i
, . . . ,
n
)
Si en un paralelotopo de aristas
1
,
2
, . . . ,
n
reemplazamos la arista
i
por
i
el
volumen queda multiplicado por [[.
En resumen, deniremos el volumen de un paralelotopo n-dimensional de aristas
1
,
2
, . . . ,
n
como una funcion real V (
1
,
2
, . . . ,
n
) tal que
i.- V (
1
,
2
, . . . ,
n
) 0
ii.- V (
1
,
2
, . . . ,
i
, . . . ,
n
) = V (
1
,
2
, . . . ,
i
+
k
, . . . ,
n
) i ,= k
iii.- V (
1
,
2
, . . . ,
i
, . . . ,
n
) = [[V (
1
,
2
, . . . ,
n
)
iv.- V (e
1
, e
2
, . . . , e
n
) = 1
Queremos demostrar que tal funcion existe y es unica. Quitemos la restriccion de que
los vectores
1
,
2
, . . . ,
n
deben ser l.i. y permitamos que cualquier n-tupla de vec-
tores de V
n
pueda ser argumento de la funcion V (
1
,
2
, . . . ,
n
). Con este proposito
88 CAP
k=1,k=i
k
k
, . . . ,
n
).
iii.- Si
i
= 0, 1 i n, D(
1
,
2
, . . . ,
n
) = 0.
iv.- Si
1
,
2
, . . . ,
n
son l.d., D(
1
,
2
, . . . ,
n
) = 0.
v.- D(
1
,
2
, . . . ,
i
, . . . ,
k
, . . . ,
n
) = D(
1
,
2
, . . . ,
k
, . . . ,
i
, . . . ,
n
).
vi.- D(
+,
2
, . . . ,
n
) = D(
,
2
, . . . ,
n
) +D(,
2
, . . . ,
n
).
vii.- Sea
i
=
r
k=1
k
i
, i = 1, 2, . . . , n
D(
1
,
2
, . . . ,
n
) =
r
1
,...,
n
=1
D(
1
1
,
2
2
,
3
3
, . . . ,
n
n
) .
viii.- Si
1
,
2
, . . . ,
n
son l.i., D(
1
,
2
, . . . ,
n
) ,= 0.
Tenemos que demostrar que existe una funcion que satisface las propiedades i), ii) y
iii) y que es unica. La demostracion se hace por induccion y no la entregaremos porque
excede el ambito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:
Si existe un funcion D(
1
,
2
, . . . ,
n
) que satisface i), ii), iii) ella debe tener una
cierta forma, luego se verica que la funcion de la forma obtenida satisface i), ii), iii)
lo cual prueba la existencia de D(
1
,
2
, . . . ,
n
). Finalmente, usando vii) y viii) se
obtiene una expresion explcita de D(
1
,
2
, . . . ,
n
) la cual coincide con la denicion
de det A. Entonces D(
1
,
2
, . . . ,
n
) = det A. A D(
1
,
2
, . . . ,
n
) la llamaremos fun-
cion determinante.
Esto ultimo prueba que si H(
1
,
2
, . . . ,
n
) es otra funcion que satisface i), ii), iii)
entonces ella tiene necesariamente la misma forma que D(
1
,
2
, . . . ,
n
) y como sa-
tisface las propiedades vii), viii), H(
1
,
2
, . . . ,
n
) = det A.
Denamos V (
1
,
2
, . . . ,
n
) = [D(
1
,
2
, . . . ,
n
)[.
5.2. VOL
UMENES Y DETERMINANTES 89
Es claro que se satisfacen las 4 propiedades que le exigimos al volumen. Queremos
demostrar que es la unica que las satisface.
Sea la funcion sgnD denida por
sgnD =
_
_
_
1 si D > 0
0 si D = 0
1 si D < 0
Consideremos V (
1
,
2
, . . . ,
n
)sgnD(
1
,
2
, . . . ,
n
). Queremos demostrar que ella
satisface las propiedades i), ii), iii) de la funcion determinante.
Ni V (
1
,
2
, . . . ,
n
) ni sgnD(
1
,
2
, . . . ,
n
) cambian cuando se reemplaza
i
por
i
+
k
luego satisface i).
Como (sgna)(sgnb) = sgn(ab), al reemplazar
i
por
i
la funcion queda multipli-
cada por [[sgn = luego satisface ii). Es claro que satisface iii). Entonces
V (
1
,
2
, . . . ,
n
)sgnD(
1
,
2
, . . . ,
n
) = D(
1
,
2
, . . . ,
n
)
Si D(
1
,
2
, . . . ,
n
) ,= 0,
V (
1
,
2
, . . . ,
n
)(sgnD(
1
,
2
, . . . ,
n
))
2
= sgnD(
1
,
2
, . . . ,
n
)D(
1
,
2
, . . . ,
n
)
= [D(
1
,
2
, . . . ,
n
)[ ,
luego observe que si D ,= 0, (sgnD)
2
= 1. Si D(
1
,
2
, . . . ,
n
) = 0, la propiedad
viii) de la funcion determinante nos permite concluir que los vectores
1
,
2
, . . . ,
n
son l.d., pero cualquier funcion que satisface las propiedades ii) y iii) de la fun-
cion determinante es 0 si los vectores
1
,
2
, . . . ,
n
son l.d. Como V (
1
,
2
, . . . ,
n
)
las satisface, V (
1
,
2
, . . . ,
n
) = 0 si los vectores
1
,
2
, . . . ,
n
son l.d. Entonces
[D(
1
,
2
, . . . ,
n
)[ es la unica funcion que satisface las propiedades i), ii), iii), iv)
exigidas al volumen.
Denicion 5.8 Denimos como volumen de un paralelotopo n-dimensional en R
n
eucldeo a
V (
1
,
2
, . . . ,
n
) = [D(
1
,
2
, . . . ,
n
)[
90 CAP
P
0
P =
p
i=1
y
i
i
Decimos que y
1
, y
2
, . . . , y
p
son las coordenadas del punto P con respecto al sistema de
coordenadas [P
0
;
1
,
2
, . . . ,
p
]. Puesto que R
n
es una variedad lineal n-dimensional,
si
1
,
2
, . . . ,
n
es una base de V
n
y Q R
n
, para cada P R
n
podemos escribir
(de manera unica)
QP =
n
i=1
x
i
Decimos que x
1
, x
2
, . . . , x
n
son las coordenadas del punto P en el sistema de coorde-
nadas [Q;
1
,
2
, . . . ,
n
], el punto Q tiene coordenadas 0,0,. . . , 0.
Elijamos como origen el punto O = (0, 0, . . . , 0) y como base de V
n
la base estandar
e
1
, e
2
, . . . , e
n
. Sea P = (x
1
, x
2
, . . . , x
n
) un punto arbitrario de R
n
. Entonces
OP = x
1
0, x
2
0, . . . , x
n
0 = x
1
, x
2
, . . . , x
n
= x
1
1, 0, . . . , 0 +x
2
0, 1, . . . , 0 + +x
n
0, 0, . . . , 1
=
n
i=1
x
i
e
i
.
Con respecto al sistema de coordenadas [O; e
1
, e
2
, . . . , e
n
], las coordenadas de P coin-
ciden con los elementos de la n-tupla (x
1
, x
2
, . . . , x
n
).
Denicion 6.1 Sea [Q;
1
,
2
, . . . ,
n
] un sistema de coordenadas en R
n
, sea =
a
1
, a
2
, . . . , a
n
un vector de V
n
. Entonces =
n
i=1
a
i
(en forma unica). Dire-
mos que a
1
, a
2
, . . . , a
n
son las componentes de en el sistema de coordenadas
[Q;
1
,
2
, . . . ,
n
], o bien, las componentes del vector con respecto a la base
1
,
2
,
. . . ,
n
.
91
92 CAP
solo si a
1
, a
2
, . . . , a
n
son las componentes de con respecto a la base e
1
, e
2
, . . . , e
n
.
Sea [Q;
1
,
2
, . . . ,
n
] un sistema de coordenadas en R
n
, sea P R
n
de coordenadas
x
1
, x
2
, . . . , x
n
, sea R R
n
de coordenadas y
1
, y
2
, . . . , y
n
. Entonces
PR =
PQ+
QR =
n
i=1
x
i
+
n
i=1
y
i
=
n
i=1
(y
i
x
i
)
i
luego
PR tiene componentes (y
i
x
i
), i = 1, 2, . . . , n en el sistema dado. Si =
n
i=1
a
i
, =
n
i=1
(a
i
)
i
luego tiene componentes a
i
, i = 1, 2, . . . , n en el
sistema dado. Si
=
n
i=1
b
i
entonces
+
=
n
i=1
(a
i
+b
i
)
i
,
+
tiene componentes a
i
+b
i
, i = 1, 2, . . . , n en el sistema dado.
Sean
1
,
2
, . . . ,
n
n vectores en V
n
, sea
i
=
n
k=1
a
ik
k
, sea
(a
ik
) =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
Llamamos
i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , n y supongamos que
m
i=1
i
=
0.
Entonces
m
i=1
i
a
ik
=
0, k = 1, 2, . . . , n y por lo tanto
m
i=1
i
i
=
m
i=1
i
_
n
k=1
a
ik
k
_
=
n
k=1
_
m
i=1
i
a
ik
_
k
=
0 .
Luego si las las de (a
ik
) son l.d. entonces
1
,
2
, . . . ,
n
son l.d. con exactamente la
misma relacion lineal.
A la inversa, supongamos que
m
i=1
i
i
= 0, entonces
n
k=1
_
m
i=1
i
a
ik
_
k
= 0
m
i=1
i
a
ik
= 0 k = 1, 2, . . . , n
6.1. TRANSFORMACI
ON DE COORDENADAS 93
luego si los vectores
1
,
2
, . . . ,
n
son l.d. las las de (a
ik
) son l.d. con la misma
relacion lineal.
Se concluye que el n umero de vcetores l.i. que contiene un sistema linealmente inde-
pendiente maximal del conjunto
1
,
2
, . . . ,
m
es igual al n umero de vectores que
contiene un sistema linealmente independiente maximal del conjunto de las de la
matriz (a
ik
) y es por lo tanto igual al rango de dicha matriz.
6.1. Transformaci on de coordenadas
Problema: Sean [Q
1
,
2
, . . . ,
n
], y [Q
;
1
,
2
, . . . ,
n
] dos sistemas de coordenadas
en R
n
. Sea P R
n
y supongamos que se conocen las coordenadas de P en el primer
sistema. Se piden las coordenadas de P en el segundo sistema.
Sean
=
n
i=1
s
i
=
n
i=1
t
i
k
=
n
i=1
v
ik
i
k
=
n
i=1
u
ik
i
k = 1, 2, . . . , n
Sean x
1
, x
2
, . . . , x
n
las coordenadas de P en el primer sistema, y
1
, y
2
, . . . , y
n
las
coordenadas de P en el segundo sistema. Entonces
P =
n
i=1
x
i
P =
n
i=1
y
i
i
Pero
Q
P =
Q
P luego
n
i=1
y
i
i
=
n
i=1
t
i
i
+
n
k=1
x
k
k
=
n
i=1
t
i
i
+
n
i=1
_
n
k=1
v
ik
x
k
_
i
y
i
= t
i
+
n
k=1
v
ik
x
k
i = 1, 2, . . . , n. Analogamente,
Q
P =
Q
P luego
x
i
= s
i
+
n
k=1
u
ik
y
k
i = 1, 2, . . . , n
(6.1)
Decimos que (6.1) es una transformacion de coordenadas del primer sistema al segundo
o viceversa.
Problema: Como cambian las componentes de un vector frente a una transformacion
de coordenadas?
Sea V
n
con componentes a
1
, a
2
, . . . , a
n
con respecto al primer sistema y compo-
nentes b
1
, b
2
, . . . , b
n
con respecto al segundo sistema.
94 CAP
k=1
a
k
k
=
n
k=1
b
k
k
n
i=1
b
i
i
=
n
i=1
_
n
k=1
v
ik
a
k
_
i
b
i
=
n
i=1
v
ik
a
k
i = 1, 2, . . . , n
Analogamente
n
i=1
a
i
i
=
n
i=1
_
n
k=1
u
ik
b
k
_
i
a
i
=
n
k=1
u
ik
b
k
i = 1, 2, . . . , n
Analicemos con mayor detencion las expresiones
k
=
n
i=1
v
ik
k
=
n
i=1
u
ik
i
k = 1, 2, . . . , n
Como
1
,
2
, . . . ,
n
son l.i., el rango de (v
ik
) es igual a n. Como
1
,
2
, . . . ,
n
son
l.i., el rango de (u
ik
) es igual a n. Se concluye que det(v
ik
) y det(u
ik
) son distintos de
cero.
Problema: Supongamos que solo [Q
1
,
2
, . . . ,
n
] es dado y que tambien el sistema
de ecuaciones
y
i
= t
i
+
n
k=1
v
ik
x
k
i = 1, 2, . . . , n
con det(v
ik
) ,= 0 es dado. Este sistema de ecuaciones le asigna a un punto P de co-
ordenadas x
1
, x
2
, . . . , x
n
con respecto al sistema [Q
1
,
2
, . . . ,
n
] una n-tupla de
n umeros y
1
, y
2
, . . . , y
n
. Existe un sistema de coordenadas donde las coordenadas de
P son precisamente y
1
, y
2
, . . . , y
n
?
Sea V
ik
el adjunto de v
ik
en det(v
ik
). Revisando la demostracion de la regla de Cramer
se obtiene que
x
k
=
n
i=1
(y
i
t
i
)V
ik
det(v
ik
)
k = 1, 2, . . . , n
Llamemos
s
k
=
n
i=1
t
i
V
ik
det(v
ik
)
u
ki
=
V
ik
det(v
ik
)
k = 1, 2, . . . , n
6.2. VARIEDADES LINEALES Y SISTEMAS DE ECUACIONES 95
Obtenemos as el sistema
x
k
= s
k
+
n
i=1
u
ki
y
i
k = 1, 2, . . . , n
Sea Q
=
n
i=1
s
i
i
y denamos
1
,
2
, . . . ,
n
por
k
=
n
i=1
u
ik
i
.
El analisis previo nos dice que
1
,
2
, . . . ,
n
son l.i. entonces [Q
;
1
,
2
, . . . ,
n
] es el
sistema de coordenadas pedido.
Analogamente, dada una base
1
,
2
, . . . ,
n
y el sistema de ecuaciones
b
i
=
n
i=1
v
ik
a
k
i = 1, 2, . . . , n det(v
ik
) ,= 0
podemos encontrar una segunda base
1
,
2
, . . . ,
n
tal que estas ecuaciones represen-
tan las ecuaciones de transicion para las componentes de un vector al pasar de la base
1
,
2
, . . . ,
n
a la base
1
,
2
, . . . ,
n
.
6.2. Variedades lineales y sistemas de ecuaciones
En otro captulo demostramos que toda variedad lineal es representable mediante un
sistema lineal de ecuaciones en el sentido que M consiste precisamente de aquellos
puntos que son las soluciones del sistema de ecuaciones, pero en la deduccion esta im-
plcito que el sistema de coordenadas es [O; e
1
, e
2
, . . . , e
n
]. Cual es la situacion cuando
el sistema de coordenadas es arbitrario?
Sea [Q
1
,
2
, . . . ,
n
] un sistema de coordenadas en el cual toda variedad lineal de
dimension p es representable por un sistema lineal de ecuaciones cuya matriz tiene
rango n p y tal que, a la inversa, todo sistema de esa naturaleza representa una
variedad lineal de dimension p. Existen sistemas de coordenadas as, [O; e
1
, e
2
, . . . , e
n
]
es uno.
Supongamos que la variedad lineal M de dimension p esta dada por el sistema de
ecuaciones
n
k=1
a
ik
x
k
= b
i
i = 1, 2, . . . , m (6.2)
donde el rango de (a
ik
) es n p.
Sea [Q
;
1
,
2
, . . . ,
n
] otro sistema de coordenadas y supongamos que las ecuaciones
de transicion para pasar del sistema [Q
;
1
,
2
, . . . ,
n
] al sistema [Q
1
,
2
, . . . ,
n
]
son
x
i
= s
i
+
n
k=1
u
ik
y
k
i = 1, 2, . . . , n
96 CAP
i
= u
i1
, u
i2
, . . . , u
in
i = 1, 2, . . . , n
y = y
1
, y
2
, . . . , y
n
Entonces x
i
= s
i
+
i
y, sustituyendo en (6.2) se tiene
n
k=1
a
ik
(s
k
+
k
y) = b
i
_
n
k=1
a
ik
k
_
y = b
i
n
k=1
a
ik
s
k
i = 1, 2, . . . , n (6.3)
Sea P M, sean x
1
, x
2
, . . . , x
n
sus coordenadas con respecto a [Q
1
,
2
, . . . ,
n
],
sean y
1
, y
2
, . . . , y
n
con respecto a [Q
;
1
,
2
, . . . ,
n
]. Por hipotesis las coordenadas
x
1
, x
2
, . . . , x
n
satisfacen las ecuaciones (6.2), como x
i
= s
i
+
i
y, al reemplazar las
x
i
en (6.2), obtenemos que las y
i
satisfacen el sistema (6.3).
A la inversa, sean y
1
, y
2
, . . . , y
n
las coordenadas de un punto P en R
n
con respecto
a [Q
;
1
,
2
, . . . ,
n
] y supongamos que satisfacen (6.3). Entonces sus coordenadas x
1
,
x
2
, . . . , x
n
con respecto a [Q
1
,
2
, . . . ,
n
] satisfacen x
i
= s
i
+
i
y, i = 1, 2, . . . , n
y por (6.3)
n
k=1
a
ik
(s
k
+
k
y) = b
i
luego
n
k=1
a
ik
x
k
= b
i
i = 1, 2, . . . , n
y por lo tanto P M y (6.3) representa a M en [Q
;
1
,
2
, . . . ,
n
].
Consideremos la matriz de coecientes del sistema (6.3), llamemos
i
=
n
k=1
a
ik
k
i = 1, 2, . . . , n
a sus vectores la.
Los vectores
1
,
2
, . . . ,
n
son l.i., luego, por un teorema previo, el n umero de vec-
tores de cualquier subconjunto linealmente independiente maximal de
1
,
2
, . . . ,
n
es igual al rango de (a
ik
) el cual es np, de modo que la matriz del sistema (6.3) tiene
rango n p.
Nota: Todo sistema lineal de ecuaciones en las variables y
1
, y
2
, . . . , y
n
y con matriz
de rango n p representa una variedad lineal de dimension p en cualquier sistema de
coordenadas [Q
;
1
,
2
, . . . ,
n
]. Basta usar las ecuaciones
y
i
= t
i
+
n
k=1
v
ik
x
k
i = 1, 2, . . . , n
y el sistema transforma a un sistema en las variables x
1
, x
2
, . . . , x
n
con matriz de
rango np y referido al sistema de coordenadas [Q
1
,
2
, . . . ,
n
] donde por hipotesis
6.3. VOL
i
y, i = 1, 2, . . . , n y por lo
tanto (6.3) es homogeneo; por teoremas previos se tiene entonces:
Un subespacio de dimension p se representa en cualquier sistema de coordenadas por
un sistema homogeneo de ecuaciones cuya matriz tiene rango n p; a la inversa,
cualquier sistema lineal homogeneo cuya matriz tiene rango n p representa a un
subespacio de dimension p.
6.3. Vol umenes y sistemas de coordenadas cartesianas
Problema: Sean
1
,
2
, . . . ,
n
n vectores cuyas componentes estan dadas en el sis-
tema de coordenadas [Q;
1
,
2
, . . . ,
n
]. Se pide el volumen del paralelotopo de aristas
1
,
2
, . . . ,
n
.
Sean
i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , n, sean a
i1
, a
i2
, . . . , a
in
las componentes de
i
con respecto a la base
1
,
2
, . . . ,
n
, se tiene
i
=
n
=1
a
Sean v
i1
, v
i2
, . . . , v
in
las componentes del vector
i
con respecto a la base estandar,
se tiene
i
= v
i1
, v
i2
, . . . , v
in
=
n
k=1
v
ik
e
k
Puesto que
i
=
n
k=1
a
ik
e
k
tenemos que
n
k=1
a
ik
e
k
=
n
=1
_
a
i
n
k=1
v
k
e
k
_
=
n
k=1
_
n
=1
a
i
v
k
_
e
k
luego
a
ik
=
n
=1
a
i
v
k
i, k = 1, 2, . . . , n
esto es, la matriz (a
ik
) resulta de multiplicar las matrices (a
ik
) y (v
ik
), luego
det(a
ik
) = det(a
ik
) det(v
ik
) (6.4)
donde el volumen pedido es [ det(a
ik
)[. La ecuacion (6.4) dice que tal volumen puede
ser calculado conociendo las componentes de las aristas en el sistema [Q;
1
,
2
, . . . ,
n
]
y las expresiones de los vectores
i
en la base estandar.
Problema: Como se comporta el producto escalar en un sistema de coordenadas
[Q;
1
,
2
, . . . ,
n
]?
98 CAP
i=1
a
b = b
1
, b
2
, . . . , b
n
b =
n
i=1
b
i
a
b =
n
i=1
a
i
b
i
=
_
n
i=1
a
i
_
_
n
i=1
b
k
_
=
n
i=1
n
k=1
a
i
b
k
(
k
)
Vemos que la formula no es analoga a la original en que las componentes estan dadas
con respecto a la base estandar. Si
k
= 0 i ,= k,
k
= 1 si i = k entonces
a
b =
n
i=1
a
i
b
i
(6.5)
Demostremos que la condicion
k
=
ik
es necesaria para que se cumpla (6.5).
Tomemos a =
i
,
b =
k
, entonces a
j
= 0 si j ,= i, a
i
= 1, analogamente para b
i
,
luego
k
=
ik
.
Denicion 6.2 Diremos que
1
,
2
, . . . ,
p
forman un sistema ortonormal de vec-
tores si
i
k
=
ik
, i, k = 1, 2, . . . , p
Si
p
i=1
i
i
= 0 entonces
p
i=1
i
(
i
k
) = 0; esto nos dice que todos los
k
son cero,
luego todo sistema ortonormal de vectores consta de vectores l.i.
Denicion 6.3 Si [Q;
1
,
2
, . . . ,
n
] es tal que
1
,
2
, . . . ,
n
es ortonormal diremos
que [Q;
1
,
2
, . . . ,
n
] es un sistema de coordenadas cartesianas.
Vemos que [Q; e
1
, e
2
, . . . , e
n
] es un sistema de coordenadas cartesianas luego no hay
problema con su existencia.
Sean [Q
1
,
2
, . . . ,
n
], [Q
;
1
,
2
, . . . ,
n
] cartesianos, sean
k
=
n
i=1
v
ik
k
=
n
i=1
u
ik
i
k = 1, 2, . . . , n
Entonces
k
j
= v
jk
,
k
j
= u
jk
, 1 j, k n. Luego si en la segunda ecuacion
intercambiamos k por j se tiene que
v
jk
= u
kj
1 j, k n
6.3. VOL
k
=
n
i=1
v
ki
i
(6.6)
Como
1
,
2
, . . . ,
n
es ortonormal
j
=
n
i=1
v
ik
v
ij
=
kj
k, j = 1, 2, . . . , n
Analogamente se tiene
k
j
=
n
i=1
v
ki
v
ji
=
kj
k, j = 1, 2, . . . , n
Tenemos entonces que las las y las columnas de (v
ik
) forman sistemas ortonormales
de vectores. Tales matrices se dicen ortogonales.
En
n
i=1
v
ik
v
ij
=
kj
multipliquemos por V
hj
donde V
hj
es el adjunto de v
hj
en det(v
kj
),
donde h es un entero jo entre 1 y n, luego sumamos las n ecuaciones resultantes:
n
j=1
_
n
i=1
v
ik
v
ij
V
hj
_
=
n
j=1
kj
V
hj
n
i=1
_
_
n
j=1
v
ij
V
hj
_
_
v
ik
= V
hk
n
i=1
(
ih
det(v
ik
))v
ik
= V
hk
v
hk
det(v
ik
) = V
hk
Como det(v
ik
) ,= 0 se tiene
v
hk
=
V
hk
det(v
ik
)
1 h n, 1 k n (6.7)
Estas relaciones caracterizan a una matriz ortogonal, en efecto
n
i=1
v
ik
v
ij
=
n
i=1
v
ik
V
ij
det(v
ik
)
=
kj
n
i=1
v
ki
v
ji
=
n
i=1
v
ki
V
ji
det(v
ik
)
=
kj
Notese que las relaciones (6.7) provienen exclusivamente de
j
=
n
i=1
v
ik
v
ij
=
kj
pero las relaciones
k
j
=
n
i=1
v
ki
v
ji
=
kj
100 CAP
=1
v
i
a
k
_
= det
_
n
=1
v
i
v
k
_
= 1
[ det(v
ik
)[ = 1
Problema: Queremos calcular el volumen de un paralelotopo cuyas aristas
1
,
2
,
. . . ,
n
estan en un sistema cartesiano [Q;
1
,
2
, . . . ,
n
].
Si
i
=
n
k=1
a
ik
k
y
i
=
n
k=1
v
ik
e
k
como det(a
k
) = det(a
ik
) det(v
ik
) el volumen pedido
es
[ det(a
ik
)[ = [ det(a
ik
)[[ det(v
ik
)[ ,
como
1
,
2
, . . . ,
n
es ortonormal entonces [ det(v
ik
)[ = 1 luego el volumen pedido
es [ det(a
ik
)[. Se concluye que la formula para el volumen es la misma para todos los
sistemas cartesianos.
6.4. Deformacion continua de sistemas de coorde-
nadas
Nota: Sabemos que si
1
,
2
, . . . ,
n
son l.i., D(
1
,
2
, . . . ,
n
) ,= 0. Puesto que
D(
1
,
2
, . . . ,
n
) = D(
1
,
2
, . . . ,
n
), si r es un real arbitrario distinto de cero,
siempre existe una base
1
,
2
, . . . ,
n
donde D(
1
,
2
, . . . ,
n
) = r. En efecto, sea
1
,
2
, . . . ,
n
una base cualquiera, sea D(
1
,
2
, . . . ,
n
) = d ,= 0,
D(
r
d
1
,
2
, . . . ,
n
) =
r
d
D(
1
,
2
, . . . ,
n
) = r ,
llame
1
=
r
d
1
,
i
=
i
, i = 2, 3, . . . , n.
Dividamos los sistemas de coordenadas en dos clases; aquellos para los cuales el va-
lor de D(
1
,
2
, . . . ,
n
) es positivo y aquellos para los cuales D(
1
,
2
, . . . ,
n
) < 0.
Queremos demostrar que dos sistemas de la misma clase pueden ser deformados con-
tinuamente el uno en el otro sin que D(
1
,
2
, . . . ,
n
) adopte el valor 0 durante el
proceso de deformacion y que esto no es posible para dos sistemas de distinta clase.
Intuitivamente, esto signica que dos n-edros de la misma clase pueden hacerse coin-
cidir mediante un cambio suave de sus angulos y longitudes, piense por ejemplo en
6.4. DEFORMACI
f(t) = f
1
(t), f
2
(t), . . . , f
n
(t)
es una funcion continua de t en c t d. Decimos que el vector
es deformado
continuamente en el vector .
El intervalo [c, d] es irrelevante. Sea [c
, d
+dc
cd
Si t
vara de c
a d
+dc
cd
_
, i = 1, 2, . . . , n
denidas en [c
, d
] son funciones g
i
(t)
) =
, g(d
) = luego g(t
) cumple
con el mismo proposito de
f(t).
Sean [Q;
1
,
2
, . . . ,
n
], [Q
;
1
,
2
, . . . ,
n
] dos sistemas de coordenadas, sea Q =
(x
1
, x
2
, . . . , x
n
), Q
= (y
1
, y
2
, . . . , y
n
), tomemos
f
i
(t) = x
i
+t(y
i
x
i
) 0 t 1 , i = 1, 2, . . . , n .
Entonces el punto Q es deformado continuamente en el punto Q
.
Tenemos que demostrar que el sistema de vectores
1
,
2
, . . . ,
n
puede ser defor-
mado continuamente en el sistema de vectores
1
,
2
, . . . ,
n
de modo que la inde-
pendencia lineal se preserve en todo momento del proceso de deformacion, esto es, si
i
= v
i1
, v
i2
, . . . , v
in
,
i
= u
i1
, u
i2
, . . . , u
in
, i = 1, 2, . . . , n tenemos que encontrar
n
2
funciones continuas f
ik
(t) denidas en c t d tales que f
ik
(c) = v
ik
, f
ik
(d) = u
ik
y tales que para todo t con c t d se tiene que det(f
ik
(t)) ,= 0. Esto no puede
suceder si D(
1
,
2
, . . . ,
n
) = det(v
ik
) y D(
1
,
2
, . . . ,
n
) = det(u
ik
) tienen signos
opuestos, puesto que det(f
ik
(t)) es una funcion continua de t en c t d luego para
al menos un t
0
[c, d] debera tenerse que det(f
ik
(t
0
)) = 0. Supondremos entonces
que det(v
ik
) y det(u
ik
) tienen el mismo signo. Podemos elegir un representativo de
la clase con determinante positivo, por ejemplo, e
1
, e
2
, . . . , e
n
y un representativo
de la clase con determinante negativo, digamos e
1
, e
2
, . . . , -e
n
. Demostraremos que
cada sistema en una clase puede ser deformado continuamente en su correspondiente
representativo. Si
1
,
2
, . . . ,
n
;
1
,
2
, . . . ,
n
estan en la clase con determinante
positivo y ambos pueden ser deformados continuamente en e
1
, e
2
, . . . , e
n
entonces, de
manera analoga, podemos deformar e
1
, e
2
, . . . , e
n
en
1
,
2
, . . . ,
n
y as
1
,
2
, . . . ,
n
puede ser deformado en
1
,
2
, . . . ,
n
va e
1
, e
2
, . . . , e
n
. Analogamente para el
caso con determinante negativo.
102 CAP
1
,
2
, . . . ,
n
un sistema de vectores tales que D(
1
,
2
, . . . ,
n
) >
0. Entonces
1
,
2
, . . . ,
n
puede ser deformado continuamente en e
1
, e
2
, . . . , e
n
sin que el determinante del sistema de vectores se anule en ninguna etapa del proce-
so. Analogamente,
1
,
2
, . . . ,
n
puede ser deformado en e
1
, e
2
, . . . , e
n
solo si
D(
1
,
2
, . . . ,
n
) < 0.
Demostracion: Para n = 1, sea
1
= v, det(v) = v. Si v > 0, sea f(t) = v+t(1v),
0 t 1; si v < 0 sea f(t) = v + t(1 v), 0 t 1. Para n = 1 el teorema es
verdadero, supongamos que es verdadero para n 1.
Lema 6.5
1
,
2
, . . . ,
n
puede ser deformado continuamente en
1
,
2
, . . . ,
i
,
,
i+1
, . . . ,
n
donde
=
i
+
k
, i ,= k, real, de modo que el determinante permanece
constante durante el proceso de deformacion.
Demostracion: Sean f
is
(t) las n
2
funciones determinadas en 0 t por:
f
i
(t) =
i
+t
k
, 0 t ; f
j
(t) =
j
, j ,= i, 0 t
esto es,
f
is
(t) = v
is
+tv
ks
0 t , s = 1, 2, . . . , n
f
js
(t) = v
js
0 t , s = 1, 2, . . . , n, j ,= i
Dado que D(
1
,
2
, . . . ,
n
) = D(
1
,
2
, . . . ,
i
+ t
k
, . . . ,
n
) el determinante per-
manece constante.
Lema 6.6 El sistema de vectores
1
,
2
, . . . ,
n
puede ser continuamente deformado
sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de
el por un cambio simultaneo del signo de dos vectores, digamos, sustituyendo
i
,
k
por
i
,
k
.
Demostracion: Consideremos la operacion del primer lema como una del siguiente
tipo:
Si j ,= i, j ,= k,
j
permanece igual.
i
se reemplaza por
i
+
k
, se anota
i
+
k
.
k
se reemplaza por
k
, se anota
k
.
Apliquemos en forma sucesiva esta nueva forma del primer lema:
i
+ 2
k
, luego
i
+ 2
i
+ 2
k
, luego
i
+ 2
k
6.4. DEFORMACI
k
.
Al menos un vector
i
debe tener v
ik
,= 0, si no es as, det(v
ik
) = 0. Si v
nn
= 0, hay
i
con v
in
,= 0 y por el primer lema podemos reemplazar
n
por
i
+
n
, luego podemos
suponer que v
nn
,= 0. Luego
v
1n
v
nn
n
, la ultima componente de este vector es
cero. En general, hacemos
i
v
in
v
nn
n
, 1 i n 1 entonces
det(v
ik
) =
b
11
b
12
b
1(n1)
0
b
21
b
22
b
2(n1)
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
(n1)1
b
(n1)2
b
(n1)(n1)
0
v
n1
v
n2
v
n(n1)
v
nn
i
, esto es porque al deformar continua-
mente el sistema de columnas de la nueva matriz de todos modos hubo que encontrar
n
2
funciones g
ik
(t) que produjesen la deformacion. Para interpretarlas como deforma-
ciones continuas de los nuevos
i
basta considerarlas en el orden adecuado).
El nuevo determinante adopta la forma
b
11
b
12
b
1(n1)
0
b
21
b
22
b
2(n2)
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
(n1)1
b
(n1)2
b
(n1)(n1)
0
0 0 0 v
nn
= v
nn
b
11
b
12
b
1(n1)
b
21
b
22
b
2(n1)
.
.
.
.
.
.
.
.
.
.
.
.
b
(n1)1
b
(n1)2
b
(n1)(n1)
1
, e
2
, . . . , e
n1
los vectores de la base estandar de R
n1
. Por la hipotesis
de induccion, el sistema de las de (b
ik
) puede ser deformado continuamente en e
1
, e
2
,
. . . , e
n1
o bien en e
1
, e
2
, . . . , e
n1
sin que el determinante cambie de signo; det(b
k
)
queda en la forma
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 v
nn
104 CAP
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1
1
=
1
1
1
,
2
, . . . ,
p1
. El sistema
1
,
2
, . . . ,
p1
,
p
es l.i. luego un vector
p
con |
p
| = 1 y ortogonal a
1
,
2
, . . . ,
p1
debe ser de la forma
p
=
n1
i=1
i
+
p
p
.
Haciendo producto punto con
i
, 1 i p 1, se obtiene
0 =
i
+
p
(
p
i
)
i
=
p
(
p
i
) 1 i p 1
luego
p
=
p
_
p
p1
i=1
(
p
i
)
i
_
. Como |
p
| = 1 y
1
,
2
, . . . ,
p1
,
p
es l.i.
podemos concluir que
_
_
_
_
_
p
p1
i=1
(
p
i
)
i
_
_
_
_
_
,= 0 y
p
=
1
_
_
_
_
_
p
p1
i=1
(
p
i
)
i
_
_
_
_
_
luego
1
,
2
, . . . ,
p
con
p
=
p
p1
i=1
(
p
i
)
i
_
_
_
_
_
p
p1
i=1
(
p
i
)
i
_
_
_
_
_
6.6. DISTANCIA Y VARIEDADES LINEALES 105
es una base ortonormal de L.
Esta formula proporciona un metodo recursivo para determinar los
i
, basta tomar
1
=
1
1
entonces
2
=
2
(
2
1
)
1
|
2
(
2
1
)
1
|
,
luego tenemos
1
y
2
y usamos la formula para determinar
3
, etc.
6.6. Distancia y Variedades lineales
Sea [Q;
1
,
2
, . . . ,
n
] un sistema de coordenadas cartesiandas en R
n
. Si =
n
i=1
a
i
i
entonces
i
= a
i
, 1 i n luego
| |
2
= =
n
i=1
a
2
i
=
n
i=1
(
i
)
2
Problema: Sea M una variedad lineal, P / M, M ,= R
n
, M contiene mas de un pun-
to. Sea dimM = p, 0 < p < n, sea L el subespacio generador. Queremos determinar
la perperdicular bajada de P a M.
Sea
1
,
2
, . . . ,
p
una base ortonormal de L, la extendemos a una base ortonormal de
V
n
, llamaremos L
p+1
,
p+1
, . . . ,
n
. Es claro que todo
vector de L
entonces
=
p
i=1
i
=
n
i=p+1
i
luego
i
= 0, i = 1, 2, . . . , n, y = 0.
Sea un vector cualquiera que es ortogonal a todos los vectores de L. Entonces
=
n
i=1
a
i
i
y a
1
= a
2
= = a
p
= 0 luego L
.
Sea Q = (y
1
, y
2
, . . . , y
n
) tal que Q / M. Existe un punto P M tal que
PQ es
ortogonal a todos los vectores de L?
Sea P
0
M arbitrario,
P
0
Q =
n
i=1
i
y llamemos
=
p
i=1
i
, al aplicar
en P
0
, P
0
se transforma en P, esto es,
P
0
P =
y
como
L entonces P M. Pero
P
0
Q =
P
0
P +
PQ luego
PQ =
n
i=p+1
i
,
PQ L
,
106 CAP
otro.
P
Q =
n
i=1
i
y
P
i
= 0, i = 1, 2, . . . , p luego
i
= 0, i = 1, 2, . . . , p
Q =
P
P +
PQ
P =
P
PQ =
n
i=p+1
(
i
i
)
i
luego
P
P L
y como P
, P M entonces
P
P L. Como LL
= 0 se sigue que
P = P
.
Llamaremos al segmento PQ (o al vector
PQ) la perpendicular de Q a M, P se llama
el pie de la perpendicular.
PQ =
_
n
i=p+1
2
i
=
_
n
i=p+1
[(
P
0
Q
i
)]
2
donde P
0
es un punto arbitrario de M. Pero
P
0
Q =
_
n
i=1
[(
P
0
Q
i
)]
2
luego P
0
Q PQ.
Hay igualdad solo si
p
i=1
[(
P
0
Q
i
)]
2
= 0, esto es solo si
P
0
Q
i
= 0, i = 1, 2, . . . , p, y
esto se da solo si P
0
= P.
PQ es la distancia mas corta de un punto Q a la variedad M. A la inversa, si P
0
M
y P
0
Q es la distancia mas corta de Q a M entonces P
0
Q = PQ es la perpendicular de
Q a M.
Problema: Supongamos que M esta dada por el sistema lineal
n
k=1
a
ik
x
k
= b
i
i = 1, 2, . . . , r
Queremos encontrar la perpendicular de Q a M. Suponemos que la matriz del sistema
tiene rango r, o sea que las r ecuaciones son independientes.
El subespacio L generador de M tiene dimension p = n r y esta representado por el
correspondiente sistema homogeneo
n
k=1
a
ik
x
k
= 0 i = 1, 2, . . . , r
y esta compuesto por todas las soluciones vectoriales de tal sistema. Si x = x
1
, x
2
, . . . , x
n
, ellos constituyen
una base para L
a partir de
1
,
2
, . . . ,
r
. Recordando que np = r, reramonos
a esta base ortonormal de L
por
p+1
,
p+2
, . . . ,
n
. Sea
p+1
= v
i1
, v
i2
, . . . , v
in
,
i = 1, 2, . . . , r y elijamos P
0
M arbitrario pero jo. Consideremos el sistema lineal
de ecuaciones
n
k=1
v
ik
x
k
=
n
k=1
v
ik
z
k
i = 1, 2, . . . , r P
0
= (z
1
, z
2
, . . . , z) (6.8)
Si P = (x
1
, x
2
, . . . , x
n
) es una solucion de este sistema, entonces
P
0
P
p+i
= 0,
i = 1, 2, . . . , r luego
P
0
P L y por lo tanto P M. A la inversa, si P M,
P
0
P L
y es solucion vectorial del sistema homogeneo, luego es ortogonal a todos los vectores
de L
P
0
Q
p+i
=
n
k=1
v
ik
(y
k
z
k
) i = 1, 2, . . . , r
Si P es el pie de la perpendicular de Q a M sabemos que
PQ =
_
n
i=p+1
[
P
0
Q
i
]
2
donde P
0
M y es arbitrario y
p+1
,
p+2
, . . . ,
n
es una base ortonormal de L
. Como
p+i
, i = 1, 2, . . . , r es una base ortonormal de L
tenemos que
PQ
2
=
r
i=1
_
n
k=1
v
ik
(y
k
z
k
)
_
2
El caso mas com un es aquel en que M es un hiperplano, esto es, M tiene dimension
n 1. En tal caso M esta dado por una sola ecuacion
n
i=1
a
i
x
i
= b
Entonces L
=
| |
= a
1
, a
2
, . . . , a
n
a
i
=
a
i
_
n
i=1
a
2
i
Sea P
0
= (z
1
, z
2
, . . . , z
n
) un punto arbitrario de M entonces
n
i=1
a
i
z
i
=
n
i=1
a
i
z
i
_
n
i=1
a
2
i
=
b
_
n
i=1
a
2
i
108 CAP
i=1
a
i
x
i
_
n
i=1
a
2
i
=
b
_
n
i=1
a
2
i
y se llama la forma normal de hiperplano M.
La perpendicular PQ esta dada por
PQ
2
=
_
n
k=1
a
k
(y
k
z
k
)
_
2
PQ
2
=
_
_
n
k=1
a
k
_
n
i=1
a
2
i
(y
k
z
k
)
_
_
2
=
_
_
n
k=1
_
_
_
_
_
_
_
_
a
k
y
k
_
n
i=1
a
2
i
_
_
_
_
_
_
_
_
_
n
i=1
a
2
i
_
_
2
Esto nos da una manera mecanica de calcular la distancia de un punto a un hiperplano.
Escriba el hiperplano en forma normal y acumule todos los terminos en el miembro
izquierdo, reemplace las coordenadas de P = (c
1
, c
2
, . . . , c
n
) por las coordenadas de
Q = (y
1
, y
2
, . . . , y
n
). El valor absoluto de lo que resulta es la distancia pedida.
Problema: Sean M
1
, M
2
variedades lineales, queremos encontrar la perpendicular
com un (cuando esta exista). Buscamos P L
1
, Q L
2
tales que el vector
PQ es
ortogonal a M
1
y M
2
.
Sea L
1
el subespacio generador de M
1
, L
2
el de M
2
. Sea S = L
1
+ L
2
de dimension
s > 0 (M
1
y M
2
no consisten ambos de un solo punto). Sea
1
,
2
, . . . ,
s
una base
ortonormal de S. Si s = n, el unico vector ortogonal a todos los vectores de S es
0. Un
vector que es ortogonal a todos los vectores de L
1
y L
2
debe ser ortogonal a todos los
vectores de S, luego la perpendicular com un es
0, luego P = Q M
1
M
2
, se concluye
que M
1
M
2
,= .
Pero M
1
M
2
,= . En efecto, sea P
0
M
1
, Q
0
M
2
entonces
P
0
Q
0
S porque
s = n entonces hay
1
L
1
,
2
L
2
tales que
P
0
Q
0
=
1
+
2
. Supongamos
que
1
lleva P
0
en P y que
2
lleva a Q
0
en Q entonces
P
0
P =
1
,
QQ
0
=
2
,
P
0
Q
0
=
P
0
P +
PQ+
QQ
0
, esto es,
1
+
2
=
PQ+
1
+
2
luego P = Q.
Por construccion, P M
1
, Q M
2
luego M
1
M
2
,= . Se concluye que si s = n la
perpendicular com un es
0.
Supongamos entonces que s < n. Sea
1
,
2
, . . . ,
s
base ortonormal de S, la extende-
mos a una base ortonormal de V
n
, sea L
s+1
,
s+2
, . . . ,
n
,
6.6. DISTANCIA Y VARIEDADES LINEALES 109
L
0. Si P
0
M
1
,
Q
0
M
2
y
P
0
Q
0
=
n
i=1
i
, llamemos =
s
i=1
i
. S luego hay
1
L
1
,
2
L
2
tales que =
1
+
2
. Sea P M
1
tal que
P
0
P =
1
, Q M tal que
Q
0
Q =
2
.
P
0
Q
0
=
P
0
P +
PQ+
QQ
0
y tambien
P
0
Q
0
= +
n
i=p+1
i
=
1
+
2
+
n
i=p+1
i
=
P
0
P +
QQ
0
+
n
i=p+1
i
luego
PQ =
n
i=p+1
i
luego
PQ L
M
1
, Q
M
2
tales que
P
luego
PQ =
n
i=p+1
i
y
PQ
=
n
i=p+1
(
i
i
)
i
tambien esta en L
. Pero
PQ =
PP
Q luego
PQ
S =
0 de donde
PQ =
P
Q =
0 luego
PP
=
QQ
. Pero
PP
L
1
,
QQ
L
2
luego
PP
=
QQ
L
1
L
2
.
A la inversa, sea L
1
L
2
, sean P
M
1
, Q
M
2
tales que
PP
= ,
QQ
= .
Como
PP
L
1
,
QQ
L
2
y
PP
=
QQ
= se tiene que
PQ =
P
luego
P
es
una perpendicular com un.
Sean P y Q, P M
1
, Q M
2
tales que
PQ es una perpendicular com un. Sea
D = L
1
L
2
, sea D. Si P
M
1
es tal que
PP
= , Q
M
2
es tal que
QQ
L
2
entonces
i=1
i
y P y Q fueron obtenidos de
modo que
PQ =
n
i=p+1
i
luego P
0
Q
0
PQ y como todas las perpendiculares comunes tienen igual longitud, la longitud de
cualquiera de ellas es la distancia mas corta entre M
1
y M
2
. Para que exista igualdad
necesariamente
i
= 0, i = 1, 2, . . . , s, luego
P
0
Q
0
L
, f(Q) = Q
entonces P
= f(P), Q
= f(Q), R
= f(R). Como
QR =
QP +
PR
QR
QR =
QP
QP + 2
QP
PR +
PR
PR.
Como
QP
QP =
PQ
PQ,
QR
QR = |
QR|
2
= |
PQ|
2
2
PQ
PR +|
PR|
2
luego
PQ
PR =
1
2
(|
PQ|
2
+|
PR|
2
|
QR|
2
), de manera analoga
=
1
2
(|
|
2
+|
|
2
|
|
2
)
y como f es un movimiento rgido se tiene que
PQ
PR =
P
1
,
2
, . . . ,
n
] un sistema de coordenadas cartesianas en R
n
. Sea
OP
i
=
i
, i =
1, 2, . . . , n, sea f un movimiento rgido, sean O
= f(O), P
i
= f(P
i
), i = 1, 2, . . . , n,
i
=
i
, i = 1, 2, . . . , n. Entonces
k
=
O
k
=
OP
i
OP
k
=
k
=
ik
Se concluye que [O
1
,
2
, . . . ,
n
] es un sistema de coordenadas cartesianas en R
n
.
Sea P R
n
, sean x
1
, x
2
, . . . , x
n
sus coordenadas con respecto a [O;
1
,
2
, . . . ,
n
],
sean x
1
, x
2
, . . . , x
n
las coordenadas de P
en [O
1
,
2
, . . . ,
n
]. Entonces
OP =
n
i=1
x
i
i
,
=
n
i=1
x
i
111
112 CAP
ITULO 7. MOVIMIENTOS R
IGIDOS
x
i
=
OP
i
=
OP
OP
i
x
i
=
O
i
=
O
i
luego x
i
= x
i
.
Demostremos que un movimiento rgido es 1-1 y sobre. Sea Q
R
n
, sean y
1
, y
2
,
. . . , y
n
sus coordenadas en [O
1
,
2
, . . . ,
n
]. Si Q tiene coordenadas y
1
, y
2
, . . . , y
n
en [O;
1
,
2
, . . . ,
n
] entonces f(Q) = Q
. Si P tiene coordenadas x
1
, x
2
, . . . , x
n
en
[O;
1
,
2
, . . . ,
n
] y f(P) = Q
entonces x
i
= y
i
, i = 1, 2, . . . , n y P = Q.
Sean [O;
1
,
2
, . . . ,
n
], [O
1
,
2
, . . . ,
n
] dos sistemas arbitrarios de coordenadas
cartesianas.
Sea f : R
n
R
n
denida por: sea P un punto cuyas coordenadas cartesianas en el
primer sistema son x
1
, x
2
, . . . , x
n
, sea P
.
Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema son
y
1
, y
2
, . . . , y
n
. Entonces
PQ =
_
n
i=1
(y
i
x
i
)
2
Pero Q
_
n
i=1
(y
i
x
i
)
2
entonces PQ = P
, f es un movimiento rgido.
Teorema 7.1 Sea f un movimiento rgido, M una variedad lineal de dimension p.
Entonces f(M) es una variedad lineal de dimension p.
Demostracion: Sea [O;
1
,
2
, . . . ,
n
] un sistema de coordenadas cartesianas, en tal
sistema M se representa mediante un sistema lineal de ecuaciones cuya matriz tiene
rango np. Sea [O
1
,
2
, . . . ,
n
] el sistema de coordenadas cartesianas obtenido de
[O;
1
,
2
, . . . ,
n
] tomando O
= f(O) y si P
i
es tal que
OP
i
=
i
entonces
i
=
i
,
i = 1, 2, . . . , n. Si P M y tiene coordenadas x
1
, x
2
, . . . , x
n
en el primer sistema,
por lo visto previamente tiene coordenadas x
1
, x
2
, . . . , x
n
en el segundo sistema con
x
i
= x
i
y por lo tanto P
= (x
1
, x
2
, . . . , x
n
) satisface el mismo sistema de ecuaciones
con respecto a [O
1
,
2
, . . . ,
n
].
Nota: Sean M
1
, M
2
variedades lineales con espacios generadores L
1
, L
2
. Debemos
recordar que si M
1
M
2
,= entonces M
1
M
2
es la variedad lineal obtenida de aplicar
L
1
L
2
en un punto P
0
M
1
M
2
.
Teorema 7.2 Sea f un movimiento rgido, M
1
, M
2
variedades lineales. Sea D =
M
1
M
2
,= . Entonces D
= M
1
M
2
.
Demostracion: Sea P D, entonces P
1
, P
2
luego P
1
M
2
luego D
1
M
2
. Sea P
1
M
2
, hay un unico P tal que f(P) = P
y
P M
1
M
2
luego P
y M
1
M
2
D
.
113
Nota: Si D = entonces D
= . En efecto, si P
= M
1
luego M
1
M
2
.
Sea f un movimiento rgido, sea V
n
. Sea P R
n
, hay Q R
n
tal que =
PQ,
denamos F : V
n
V
n
por F( ) =
P
.
Queremos demostrar que F es independiente de la eleccion de P. Sea P
1
arbitrario,
sea Q
1
tal que =
P
1
Q
1
. Consideremos un sistema de coordenadas cartesianas
[O;
1
,
2
, . . . ,
n
], sea [O
1
,
2
, . . . ,
n
] tal como antes. Los puntos P
, Q
, P
1
,
Q
1
tienen las mismas coordenadas en [O
1
,
2
, . . . ,
n
] que P, Q, P
1
, Q
1
tienen en
[O;
1
,
2
, . . . ,
n
] luego los vectores
P
y
P
1
Q
1
tienen las mismas componentes en
el sistema [O
1
,
2
, . . . ,
n
] que los vectores
PQ y
P
1
Q
1
tienen en [O;
1
,
2
, . . . ,
n
].
Como
PQ =
P
1
Q
1
entonces
P
=
P
1
Q
1
luego F esta bien denida.
Si F(
1
) = F(
2
),
1
y
2
tienen las mismas componentes en [O;
1
,
2
, . . . ,
n
] luego
1
=
2
. Es claro que F es sobre. Diremos que f induce la transformacion F en V
n
.
Problema: Sea [O;
1
,
2
, . . . ,
n
] un sistema de coordenadas jo, sea P un punto de
coordenadas x
1
, x
2
, . . . , x
n
con respecto a este sistema. Sea f un movimiento rgido.
Se piden las coordenadas de P
.
Sabemos que P
tiene coordenadas x
1
, x
2
, . . . , x
n
en [O
1
,
2
, . . . ,
n
]. Sean
OO
=
n
i=1
t
i
k
=
n
i=1
a
ik
i
Si P
tiene coordenadas y
1
, y
2
, . . . , y
n
en [O;
1
,
2
, . . . ,
n
] entonces
y
i
= t
i
+
n
k=1
a
ik
x
k
i = 1, 2, . . . , n
y ademas (a
ik
) es matriz ortogonal.
A la inversa, consideremos el sistema lineal
y
i
= t
i
+
n
i=1
a
ik
x
k
i = 1, 2, . . . , n (7.1)
donde x
1
, x
2
, . . . , x
n
representan las coordenadas de P en un cierto sistema de coorde-
nadas cartesianas [O,
1
,
2
, . . . ,
n
]. Si interpretamos (7.1) como una transformacion
f tal que f(P) es el punto P
cuyas coordenadas y
1
, y
2
, . . . , y
n
estan dadas por (7.1)
entonces, si (a
ik
) es ortogonal, f es un movimiento rgido.
En efecto, sea Q otro punto de coordenadas x
1
, x
2
, . . . , x
n
, sea Q
de coordenadas y
1
,
114 CAP
ITULO 7. MOVIMIENTOS R
IGIDOS
y
2
, . . . , y
n
donde Q
= f(Q). Entonces
y
i
y
i
=
n
k=1
a
ik
(x
k
x
k
) i = 1, 2, . . . , n
(y
i
y
i
)
2
=
_
n
k=1
a
ik
(x
k
x
k
)
_
2
=
n
k=1
n
j=1
a
ik
a
ij
(x
k
x
k
)(x
j
x
j
) i = 1, 2, . . . , n
Sumemos las n ecuaciones:
n
i=1
(y
i
y
i
)
2
=
n
i=1
n
k=1
n
j=1
a
ik
a
ij
(x
k
x
k
)(x
j
x
j
)
=
n
k=1
n
j=1
_
n
i=1
a
ik
a
ij
_
(x
k
x
k
)(x
j
x
j
)
=
n
k=1
n
j=1
kj
(x
k
x
k
)(x
j
x
j
) =
n
k=1
(x
k
x
k
)
2
luego PQ
2
= P
2
.
Si det(a
ik
) = 1, (7.1) se dice un movimiento rgido propio, si det(a
ik
) = 1 se dice
impropio.
Consideremos la transformacion inducida por (7.1) en V
n
. Queremos calcular las com-
ponentes de f( ) a partir de las componentes de . Pero las componentes de
PQ son
x
k
x
k
, k = 1, 2, . . . , n, y las de
P
son y
i
y
i
luego ya tenamos que
y
i
y
i
=
n
k=1
a
ik
(x
k
x
k
)
Si llamamos u
i
a las componentes de y u
i
a las componentes de
= F( ) se tiene
u
i
=
n
k=1
a
ik
u
i
i = 1, 2, . . . , n
Sea A
ik
el adjunto de a
ik
en det(a
ik
), volviendo a (7.1) se tiene, por la regla de Cramer
que
x
i
=
1
det(a
ik
)
n
k=1
A
ki
(y
k
t
k
) i = 1, 2, . . . , n (7.2)
(7.2) tambien dene una transformacion. Si P
IGIDOS EN R
2
115
Nota: Vimos que un movimiento rgido deja invariante al producto escalar, pero
para demostrarlo representamos ambos vectores con el mismo punto inicial. Queremos
hacer ver que esta restriccion es superua. Sean ,
arbitrarios,
fueron
denidos independientemente de su punto inicial. Tomemos =
PQ, =
PR entonces
=
P
=
P
y
=
.
Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i.
1
,
2
, . . . ,
n
, sean
1
,
2
, . . . ,
n
sus imagenes seg un un movimiento rgido. Sea P
el punto a partir del cual se genera el paralelotopo, sea P
su imagen, aplicando
los vectores
n
i=1
i
, 0
i
1 a partir de P
i
tiene
componentes u
i1
, u
i2
, . . . , u
in
en el sistema cartesiano [O;
1
,
2
, . . . ,
n
],
i
tiene las
mismas componentes en [O
1
,
2
, . . . ,
n
]. El volumen del paralelotopo original es
[ det(u
ik
)[. El volumen del paralelotopo cuyas aristas son
1
,
2
, . . . ,
n
puede ser
evaluado de la misma manera en terminos de los componentes de los vectores
i
en el
sistema [O
1
,
2
, . . . ,
n
]. Pero dichas componentes son iguales a las de los vectores
i
en el sistema [O;
1
,
2
, . . . ,
n
], luego este segundo volumen es igual al original. El
volumen de un paralelotopo es invariante frente a movimientos rgidos.
Que sucede con det(u
ik
) si las u
ik
son reemplazadas por las componentes de los
i
en el mismo sistema de coordenadas [O;
1
,
2
, . . . ,
n
]?
Supongamos que tales componentes son u
i1
, u
i2
, . . . , u
in
. Sabemos que
u
ik
=
n
=1
a
k
u
i
i, k = 1, 2, . . . , n
det(u
ik
) = det
_
n
=1
u
i
a
k
_
= det(u
ik
) det(a
ik
)
Como det(a
ik
) = 1,
det(u
ik
) = det(u
ik
).
7.1. Movimientos rgidos en R
2
En un sistema de coordenadas cartesianas un movimiento rgido f esta dado por
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
donde (a
ik
) es ortogonal, y para las componentes de los vectores se tiene
u
1
= a
11
u
1
+a
12
u
2
u
2
= a
21
u
1
+a
22
u
2
Un vector se dice invariante bajo f si f( ) = . Es claro que
0 es invariante bajo
f. Nos preguntamos si existe alg un otro vector invariante. Si es que lo hay debe darse
que
u
1
= a
11
u
1
+a
12
u
2
u
2
= a
21
u
1
+a
22
u
2
(a
11
1)u
1
+a
12
u
2
= 0
a
21
u
1
+ (a
22
1)u
2
= 0
(7.3)
116 CAP
ITULO 7. MOVIMIENTOS R
IGIDOS
luego para que alg un vector distinto de cero sea invariante, la matriz
_
(a
11
1) a
12
a
21
(a
22
1)
_
debe tener rango R menor que 2.
Caso 1: R = 0. Todos los vectores de V
2
son soluciones de (7.3), a
11
= a
22
= 1,
a
12
= a
21
= 0, luego la matriz (a
ik
) es
_
1 0
0 1
_
, det(a
ik
) = 1, y las ecuaciones que
denen a f son de la forma
y
1
= t
1
+x
1
y
2
= t
2
+x
2
Si O = (0, 0), O
= (t
1
, t
2
), el movimiento rgido es una traslaci on en
OO
; si
t
1
= t
2
= 0, f es la identidad.
Caso 2: R = 1.
0 =
a
11
1 a
12
a
21
a
22
1
= det(a
ik
) + 1 a
11
a
22
y alg un elemento de
_
a
11
1 a
12
a
21
a
22
1
_
es distinto de cero.
Si det(a
ik
) = 1 entonces a
11
+a
22
= 2, pero como
a
2
11
+a
2
12
= 1
a
2
21
+a
2
22
= 1
ning un a
ik
puede ser tal que [a
ik
[ > 1 y a
11
+a
22
= 2 se cumple solo si a
11
= a
22
= 1. En
tal caso a
12
= a
21
= 0 y estamos en el caso 1. Entonces es necesario que det(a
ik
) = 1.
Pero si det(a
ik
) = 1, como a
11
=
A
11
det(a
ik
)
y A
11
= a
22
se tiene a
11
= a
22
y entonces
det(a
ik
) + 1 a
11
a
22
= 0 y (a
ik
) tiene rango 1. Luego el caso 2 puede suceder si y
solo si det(a
ik
) = 1.
En tal caso tenemos un subespacio invariante de dimension 1. Sea
1
un vector unitario
que es base de este subespacio y extendemos a una base ortonormal
1
,
2
de R
2
. Sea
Q arbitrario, escribamos las ecuaciones de f en [Q;
1
,
2
]. Las nuevas ecuaciones son
de la forma
y
1
= t
1
+c
11
x
1
+c
12
x
2
y
2
= t
2
+c
21
x
1
+c
22
x
2
u
1
= c
11
u
1
+c
12
u
2
u
2
= c
21
u
1
+c
22
u
2
Pero
1
es vector invariante y en la base elegida u
1
= 1, u
2
= 0 luego
u
1
= c
11
u
1
+c
12
u
2
u
2
= c
21
u
1
+c
22
u
2
c
11
= 1
c
21
= 0
Ademas
c
22
=
A
22
det(c
ik
)
=
c
11
1
luego c
22
= c
11
= 1
c
12
=
A
12
det(c
ik
)
=
c
21
1
luego c
12
= c
21
= 0
7.1. MOVIMIENTOS R
IGIDOS EN R
2
117
De lo dicho se desprende que las ecuaciones de f en el sistema [Q;
1
,
2
] deben ser de
la forma
y
1
= t
1
+x
1
y
2
= t
2
x
2
(7.4)
Sea Q
1
tal que su coordenada x
1
en [Q;
1
,
2
] es arbitraria pero x
2
=
1
2
t
2
. Por (7.4),
Q
1
tiene y
2
=
1
2
t
2
luego la segunda componente de
Q
1
Q
1
en tal sistema es 0. Como las
componentes de un vector son independientes del origen y dependen solo de la base,
el vector
Q
1
Q
1
tiene segunda componente igual a cero en el sistema [Q
1
;
1
,
2
]. Pero
en este sistema Q
1
tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q
1
en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q
1
;
1
,
2
],
si x
1
= x
2
= 0 necesariamente y
2
= 0 luego t
2
= 0. Se concluye que en el sistema
[Q
1
;
1
,
2
] las ecuaciones de f deben ser de la forma
y
1
= t
1
+x
1
y
2
= x
2
La ecuacion y
1
= t
1
+x
1
nos dice que cada punto del plano es trasladado en la direccion
del eje x
1
en [t
1
[ hacia la derecha o izquierda seg un t
1
> 0 o t
1
< 0 y despues se realiza
una reexion en el eje x
1
.
Caso 3: R = 2. El unico vector invariante es
0. Si det(a
ik
) = 1 estamos en el caso
2. Luego det(a
ik
) = 1. Como a
11
=
A
11
det(a
ik
)
, si a
11
= 1 entonces a
22
= A
11
= 1,
a
12
= a
21
= 0 y estamos en el caso 1. Luego a
11
,= 1.
A la inversa, si det(a
ik
) = 1 y a
11
,= 1 tenemos que estar en el caso 3 porque en el caso
1 se tiene a
11
= 1 y en el caso 2 se tiene det(a
ik
) = 1.
Supongamos que f tiene un punto jo (x
1
, x
2
) entonces
x
1
= t
1
+a
11
x
1
+a
12
x
2
x
2
= t
2
+a
21
x
1
+a
22
x
2
(a
11
1)x
1
+a
12
x
2
= t
1
a
21
x
1
+ (a
22
1)x
2
= t
2
Como el rango de la matriz del sistema es 2, el sistema tiene siempre una unica solu-
cion (x
1
, x
2
), sea Q(x
1
, x
2
) el punto jo, sea [Q;
1
,
2
] un sistema de coordenadas
cartesianas, la forma de f en este sistema es
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
Para x
1
= x
2
= 0 se tiene y
1
= y
2
= 0 luego t
1
= t
2
= 0. Como a
2
11
+a
2
21
= 1 sea tal
que a
11
= cos y pidamos 0 < < 2 ( = 0 no puede darse porque entonces R = 0)
a
22
=
A
22
det(a
ik
)
= a
11
= cos a
12
=
A
12
det(a
ik
)
= a
21
= sen
luego
y
1
= x
1
cos x
2
sen
y
2
= x
1
sen +x
2
cos
118 CAP
ITULO 7. MOVIMIENTOS R
IGIDOS
en el sistema [Q;
1
,
2
]. Entonces
1
va al vector
1
de componentes cos , sen y
2
va al vector
2
de componentes sen, cos luego [Q;
1
,
2
] va a [Q;
1
,
2
] despues
de una rotacion en el sentido trigonometrico positivo en torno a Q y angulo . Si P es
arbitrario, P
1
,
2
] que P tiene en [Q;
1
,
2
].
Podemos concluir que P
k=1
a
ik
x
k
i = 1, 2, 3 ,
(a
ik
) matriz ortogonal, det(a
ik
) = 1.
Consideremos primero el caso det(a
ik
) = 1. Si el vector de componentes u
1
, u
2
, u
3
es
invariante entonces
u
i
=
3
k=1
a
ik
u
i
luego u
1
, u
2
, u
3
deben ser soluciones del sistema
(a
11
1)u
1
+a
12
u
2
+a
13
u
3
= 0
a
21
u
2
+ (a
22
1)u
2
+a
23
u
3
= 0
a
31
u
1
+a
32
u
2
+ (a
33
1)u
3
= 0
(7.5)
a
11
1 a
12
a
13
a
21
a
22
1 a
23
a
31
a
32
a
33
1
= det(a
ik
) A
11
A
12
A
13
+a
11
+a
22
+a
33
1
Como det(a
ik
) = 1, a
ik
= A
ik
luego el determinante vale cero. El rango de la matriz
de (7.5) es a lo mas dos luego la dimension del subespacio de vectores invariantes es
al menos uno.
Queremos demostrar que si det(a
ik
) = 1 la dimension de tal subespacio puede ser 1
o 3 pero nunca puede ser 2.
Supongamos que es 2, entonces el rango de la matriz de (7.5) es a lo mas 1 y todos
sus menores de 2 2 son cero, en particular
a
11
1 a
12
a
21
a
22
1
= A
33
a
11
a
22
+ 1 = 0
a
11
1 a
13
a
31
a
33
1
= A
22
a
11
a
33
+ 1 = 0
a
22
1 a
23
a
32
a
33
1
= A
11
a
22
a
33
+ 1 = 0
7.2. MOVIMIENTOS R
IGIDOS EN R
3
119
Sumando las dos primeras ecuaciones y recordando que a
ik
= A
ik
se obtiene 2a
11
+
2 = 0, a
11
= 1. De manera analoga a
22
= a
33
= 1. De la ortogonalidad de (a
ik
) se
obtiene a
ik
= 0, i ,= k, luego todos los coecientes en (7.5) son cero, la dimension del
espacio invariante es 3, todos los vectores en V
3
son invariantes.
Consideremos ahora el caso det(a
ik
) = 1, existe alg un vector que va a ?
Entonces, si las componentes de son u
1
, u
2
, u
3
debe tenerse que u
i
= u
i
, i = 1, 2, 3
y deben ser soluciones de
(a
11
+ 1)u
1
+a
12
u
2
+a
13
u
3
= 0
a
21
u
2
+ (a
22
+ 1)u
2
+a
23
u
3
= 0
a
31
u
1
+a
32
u
2
+ (a
33
+ 1)u
3
= 0
y el determinante de la matriz del sistema vale
det(a
ik
) +A
11
+A
22
+A
33
+a
11
+a
22
+a
33
+ 1
y como det(a
ik
) = 1 y a
ik
= A
ik
el determinante se anula.
El subespacio de soluciones tiene al menos dimension 1. Probaremos que tal dimension
es 1 o 3. Supongamos que tiene dimension 2, entonces todos los menores de 2 2 de
la matriz del sistema deben ser cero, en particular los principales (a lo largo de la
diagonal principal). Se obtiene a
11
= a
22
= a
33
= 1 y a
ik
= 0 si i ,= k, todos los
coecientes se anulan y todo V
3
es invariante.
Sea p la dimension del subespacio de vectores invariantes, q la dimension del subespa-
cio de vectores que van a .
p y q estan denidos para todo movimiento rgido f independientemente si det(a
ik
) = 1
o det(a
ik
) = 1.
Los resultados coleccionados hasta ahora nos dicen que para cualquier f al menos una
de las siguientes ecuaciones se cumple:
i.- p = 1
ii.- p = 3
iii.- q = 1
iv.- q = 3
Demostraremos que para cualquier movimiento rgido en R
3
se cumple exactamente
una de las cuatro ecuaciones.
En efecto, ii) se cumple si y solo si todo V
3
es invariante, eso excluye a las otras.
Analogamente si iv) se cumple. Luego dos de ellas pueden cumplirse simultaneamente
solo si ii) y iv) no se cumplen, esto es, i) y iii) son las unicas alternativas que podran
darse juntas. Supongamos que es as, hay ,=
0 que es invariante y
,=
0 que va a
.
Es claro que y
son l.i. Consideremos el subespacio L de los vectores ortogonales a
y
. La dimension de L es 1. Sea e L, e ,=
0, sea e
su imagen. Entonces
e = e
= 0 e
= e
= 0 e
= e
) = 0
120 CAP
ITULO 7. MOVIMIENTOS R
IGIDOS
luego e
L, e
= e. Pero |e
no es posible que p = 1 y si e = e
no es posible que q = 1.
Tenemos as los movimientos rgidos en R
3
divididos en cuatro clases mutuamente ex-
cluyentes, i) y ii) corresponden a det(a
ik
) = 1, iii) y iv) corresponden a det(a
ik
) = 1.
i.- p = 1. Sea
3
invariante, |
3
| = 1, extendamos a una base ortonormal
1
,
2
,
3
de R
3
, sea [Q;
1
,
2
,
3
] un sistema cartesiano, consideremos las ecuaciones de f
en tal sistema, sean ellas
y
i
= t
i
+
3
k=1
a
ik
x
k
i = 1, 2, 3
u
k
=
3
k=1
a
ik
u
i
k = 1, 2, 3
Como
3
es invariante, u
1
= u
2
= 0, u
3
= 1 luego a
13
= a
23
= 0, a
33
= 1 y de la
ortogonalidad de (a
ik
) obtenemos a
31
= a
32
= 0 luego
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
y
3
= t
3
+x
3
(7.6)
El determinante de la matriz del sistema es
a
11
a
12
0
a
21
a
22
0
0 0 1
a
11
a
12
a
21
a
22
De la ortonormalidad se tiene
a
2
11
+a
2
12
= 1
a
2
21
+a
2
22
= 1
Tambien a
11
a
21
+a
12
a
22
+a
13
a
23
= 0 luego a
11
a
21
+a
12
a
22
= 0.
Como det(a
ik
) = 1,
a
11
a
12
a
21
a
22
= 1 luego
_
a
11
a
12
a
21
a
22
_
es ortogonal.
Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecua-
ciones denen un movimiento rgido en R
2
. Ademas no es posible tener a
11
=
a
22
= 1 porque en tal caso p = 3. Entonces este movimiento rgido en R
2
tiene un
punto jo, esto es, hay x
1
, x
2
que satisfacen y
1
= x
1
, y
2
= x
2
. Sea S R
3
cuyas
dos primeras coordenadas en [Q;
1
,
2
,
3
] son x
1
, x
2
. S
1
,
2
,
3
], es independiente del origen y es vali-
do tambien en [S;
1
,
2
,
3
], luego S
IGIDOS EN R
3
121
este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto signica
que las dos primeras coordenadas tanto de S como de S
1
,
2
,
3
] tienen la forma
y
1
= a
11
x
1
a
12
x
2
y
2
= a
21
x
1
+a
22
x
2
y
3
= t
3
+x
3
.
Como
_
a
11
a
12
a
21
a
22
_
es ortogonal, podemos determinar de manera unica un angu-
lo , 0 2, tal que a
11
= cos , a
21
= sen, a
12
= sen, a
22
= cos ,
luego en [S;
1
,
2
,
3
] las ecuaciones de f son
y
1
= x
1
cos x
2
sen
y
2
= x
1
sen +x
2
cos
y
3
= t
3
+x
3
Consideremos una recta paralela a
3
. Todos sus puntos tienen sus dos primeras
coordenadas x
1
, x
2
iguales, su interseccion con el plano x
1
, x
2
tiene coordenadas
x
1
, x
2
, 0. Buscamos
. Sea P de coordenadas x
1
, x
2
, x
3
. Las dos primeras
ecuaciones no dependen de x
3
luego todos los P
queda com-
pletamente determinada una vez conocida la imagen de este punto interseccion.
Por otra parte, estas dos ecuaciones denen una rotacion de angulo en torno al
origen. Consideremos la rotacion en R
3
en torno al eje x
3
y de angulo , el punto
(x
1
, x
2
, 0) va al punto (y
1
, y
2
, 0)
luego va a
. Como es arbitraria,
esto es cierto para cualquier recta paralela a
3
. Nuestro movimiento rgido se
compone de una rotacion de R
3
en torno al eje x
3
de [S;
1
,
2
,
3
] seguida de
una traslacion en la direccion de dicho eje.
ii.- p = 3. Vimos que en cualquier sistema cartesiano det(a
ik
) vale 1 y que a
ik
=
ik
,
las ecuaciones adoptan la forma
y
1
= t
1
+x
1
y
2
= t
2
+x
2
y
3
= t
3
+x
3
lo cual representa una traslacion.
iii.- q = 1. En este caso det(a
ik
) = 1 en todo sistema de coordenadas cartesianas.
Sea
3
, |
3
| = 1 tal que
3
va a
3
, extendamos a una base ortonormal
1
,
2
,
3
,
escribamos las ecuaciones de f en [Q;
1
,
2
,
3
]. Sean u
1
, u
2
, u
3
las componentes
de
3
. Como
3
3
se tiene que u
1
= u
2
= 0, u
3
= 1 si u
1
= u
2
= 0 y
122 CAP
ITULO 7. MOVIMIENTOS R
IGIDOS
u
3
= 1. Pero esto es posible solo si a
13
= a
23
= 0 y a
33
= 1. Se tiene
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
y
3
= t
3
x
3
(7.7)
Sea R R
3
tal que su tercera coordenada es x
3
=
1
2
t
3
en [Q;
1
,
2
,
3
]. Entonces
R
tiene y
3
=
1
2
t
3
y la tercera componente de
RR
a
11
a
12
a
21
a
22
= 1
luego
_
a
11
a
12
a
21
a
22
_
es ortogonal.
Si a
11
= 1 entonces a
22
= a
11
= 1 luego a
12
= a
21
= 0 y las ecuaciones (7.7)
adoptan la forma
y
1
= t
1
+x
1
y
2
= t
2
+x
2
y
3
= x
3
;
en este caso f consiste en una reexion en el plano x
1
, x
2
seguida de una traslacion
paralela a ese plano.
Si a
11
,= 1, hay dos n umeros x
1
, x
2
que sustitudos en las dos primeras ecuaciones
de (7.7) dan y
1
= x
1
, y
2
= x
2
. Sea S R
3
tal que sus dos primeras coordenadas
en [R;
1
,
2
,
3
] son x
1
, x
2
y tal que x
3
= 0. Entonces S
tiene coordenadas
y
1
= x
1
, y
2
= x
2
, y
3
= x
3
= 0 ya que t
3
= 0. Como S es punto jo de f,
x
1
= x
2
= x
3
= 0 entonces y
1
= y
2
= y
3
= 0 y nalmente t
1
= t
2
= t
3
= 0. Sean
a
11
= cos , a
21
= sen , a
12
= sen , a
22
= cos ,
en [S;
1
,
2
,
3
] las ecuaciones de f quedan
y
1
= x
1
cos x
2
sen
y
2
= x
2
sen +x
2
cos
y
3
= x
3
f es una reexion en el plano x
1
, x
2
seguida de una rotacion en torno al eje x
3
.
iv.- q = 3. det(a
ik
) = 1 en todo sistema cartesiano, a
11
= a
22
= a
33
= 1, a
ik
= 0
para i ,= k. Se tiene
y
1
= t
1
x
1
y
2
= t
2
x
2
y
3
= t
3
x
3
7.2. MOVIMIENTOS R
IGIDOS EN R
3
123
Sea Q R
3
con x
1
=
1
2
t
1
, x
2
=
1
2
t
2
, x
3
=
1
2
t
3
entonces Q
ITULO 7. MOVIMIENTOS R
IGIDOS
Captulo 8
Problemas propuestos
1. Sean A y B matrices de m n. Diremos que B es equivalente por las con A
si B se obtiene de A mediante una sucesion nita de operaciones elementales la.
Sean
A =
_
_
_
_
1 2 0 1 5
1 1 1 2 1
3 0 1 1 2
4 4 2 1 0
_
_
_
_
, B =
_
_
_
_
1 0 1 0 2
0 1 1 1 1
4 2 3 1 0
1 0 1 0 1
_
_
_
_
Son A y B equivalentes por las?
2. Sea R matriz de m n. Diremos que R es reducida por las si se cumplen las
siguientes condiciones:
i. El primer elemento distinto de cero de una la no nula es igual a 1 (una la
nula es una la que consta solo de ceros).
ii. Toda columna que contiene al primer elemento no nulo de una la tiene
todos sus demas elementos iguales a cero.
Demuestre que toda matriz A de mn es equivalente por las a una matriz R
reducida por las. Encuentre todas las matrices de 3 3 reducidas por las.
3. Sea B una matriz de n p. Encuentre una matriz C de m p cuyas las sean
combinaciones lineales de las las de B. Demuestre que existe una matriz A de
mn tal que C = AB.
Enuncie y verique una proposicion similar para las columnas.
4. Sea E de mm. Diremos que E es elemental si se obtiene de la matriz identidad
de mm mediante una sola operacion elemental la. Sea e operacion elemental
la, sea A una matriz arbitraria de mn. Sea e(A) la matriz resultante de aplicar
e a A, sea e(I) la correspondiente matriz elemental. Demuestre que e(A) = e(I)A.
125
126 CAP
AB ). Si C, D R
n
, llamaremos
segmento de recta CD al subconjunto de la recta por C y de direccion
CD
correspondiente a 0 1.
Demuestre que si A, B son puntos del segmento CD entonces AB CD.
Demuestre que la recta por A y direccion
AB es la misma que la original.
Sean a, b E
n
. Demuestre que a y b son l.d. si y solo si
AP
1
= a,
AP
2
= b
son tales que P
1
y P
2
estan sobre la misma recta en R
n
.
10. En E
5
sean
a
1
= (1, 0, 2, 1, 3)
a
2
= (0, 0, 1, 1, 1)
a
3
= (1, 1, 2, 0, 0)
i. Cual es la dimension de L(a
1
, a
2
, a
3
)?
ii. Esta (1, 0, 0, 0, 0) en L(a
1
, a
2
, a
3
)?
iii. Si es que dimL(a
1
, a
2
, a
3
) = 3, extienda a
1
, a
2
, a
3
a una base de E
5
.
11. En E
4
sean
a
1
= (3, 1, 1, 2)
a
2
= (4, 1, 2, 3)
a
3
= (10, 3, 0, 7)
a
4
= (1, 1, 7, 0)
Sea L
1
= L(a
1
, a
2
, a
3
, a
4
). Sean
b
1
= (2, 4, 3, 7)
b
2
= (5, 2, 2, 1)
Sea L
2
= L(b
1
, b
2
).
Encuentre dimL
1
, dimL
2
, dimL
1
L
2
, dim(L
1
+L
2
).
12. Sea L un subespacio de E
n
. Sea X = y E
n
: (xy) L, sea Z = y E
n
:
(z y) L. Demuestre que si X Z ,= entonces X = Z. Llamaremos a X
la clase del elemento x E
n
. Demuestre que si w X entonces la clase W del
elemento w es X. A los elementos de una clase los llamaremos representativos
128 CAP
2 5 0 1 3
1 0 3 7 2
3 1 0 5 5
2 6 4 1 2
0 3 1 2 3
Calcule el valor de D desarrollando por los menores de las las 2,3 y 5. Verique
que su valor es -1032.
16. Sea A una matriz de m n. Supongamos que un menor de orden r de A es
distinto de cero, r < mn(m, n), r > 0. Demuestre que A tiene al menos r las y
r columnas l.i.
17. Resuelva el sistema de ecuaciones lineales
(3 +i)z
1
iz
2
+ z
3
= 0
2z
1
+ iz
2
(1 i)z
3
= 0
(1 +i)z
1
+ 0 z
2
+ 2z
3
= 0
z
1
iz
2
+ (1 +i)z
3
= 0
iz
1
z
2
+ 3z
3
= 0
donde z
j
= x
j
+iy
j
, j = 1, 2, 3, sin separar parte real e imaginaria. Verique su
resultado resolviendo el sistema separando en parte real y parte imaginaria.
18. Estudie las soluciones del sistema
z
1
+ iz
1
+ z
3
= 1
iz
1
+ z
2
+ iz
3
= i
z
1
+ (1 i)z
2
+ z
3
= i
2
como una funcion de .
129
19. Sean
1
= 1, 1, 2, 0 ,
2
= 0, 1, 1, 0
3
= 2, 1, 0, 1 ,
4
= 1, 0, 1, 2
vectores en V
4
, sea Q = (1, 1, 1, 1) un punto en R
4
. Verique que [Q;
1
,
2
,
3
,
4
]
es un sistema de coordenadas en R
4
. Encuentre las coordenadas del punto P =
(0, 1, 1, 0) en dicho sistema. Cuales son las coordenadas de Q? Dado =
0, 1, 1, 0 V
4
, encuentre las componentes de con respecto al sistema de
coordenadas dado. Cuales son las componentes de
1
, y las de
1
+
2
? En-
cuentre la ley de transformacion de coordenadas para pasar del sistema dado a
[0; e
1
, e
2
, e
3
, e
4
] y viceversa. Encuentre las coordenadas de P en [O; e
1
, e
2
, e
3
, e
4
]
y verique que sus formulas son correctas. Cual es la ley de transformacion para
las componentes de los vectores? Encuentre las componentes de en [O; e
1
, e
2
, e
3
, e
4
]
y verique que su ley de transformacion es correcta.
20. Sean
1
=
1
2
,
3
2
, 1, 0,
2
= 0, 1, 0, 1 vectores en V
4
cuyas componentes
estan dadas en [O; e
1
, e
2
, e
3
, e
4
]. Sea P
0
R
4
de coordenadas (0, 3, 2, 0) en tal
sistema. Sea L el subespacio de V
4
generado por
1
y
2
. Encuentre todos los
puntos (x
1
, x
2
, x
3
, x
4
) R
4
que estan sobre la variedad lineal M obtenida de
copiar L en P
0
. Demuestre que el conjunto de soluciones del sistema
x
1
+x
2
x
3
x
4
= 1
x
1
x
2
+ 2x
3
+x
4
= 1
es exactamente tal variedad lineal.
Encuentre el subespacio L
1
,
2
,
3
,
4
]
del ejercicio (19).
21. Sean
1
= 1, 1, 1, 1
2
= 2, 1, 1, 1
3
= 0, 1, 1, 1
4
= 0, 0, 1, 1
vectores en V
4
cuyas componentes estan dadas en la base estandar. Encuentre
el volumen del paralelotopo de aristas
1
,
2
,
3
,
4
. Con respecto al sistema
de coordenadas [Q;
1
,
2
,
3
,
4
] del ejercicio anterior, verique e interprete la
f ormula
det(a
ik
) = det(a
ik
) det(v
ik
) (Seccion 6.4)
130 CAP
1
,
2
,
3
,
4
. Use el
metodo de Gram-Schmidt con el producto escalar en la base estandar para ob-
tener un sistema ortonormal de vectores
1
,
2
,
3
,
4
a partir de
1
,
2
,
3
,
4
,
y otro
1
,
2
,
3
,
4
a partir de
1
,
2
,
3
,
4
. Verique que la matriz de tran-
sicion del sistema
1
,
2
,
3
,
4
al sistema
1
,
2
,
3
,
4
es ortogonal. Exprese
los vectores
1
,
2
,
3
,
4
en el sistema
1
,
2
,
3
,
4
y verique e interprete la
formula
[ det(a
ik
)[ = [ det(a
ik
)[[ det(v
ik
)[
22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coorde-
nadas [O; e
1
, e
2
, e
3
, e
4
], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentre
la direccion de la recta perpendicular de P a M, el pie de la perpendicular en
M y la longitud de tal perpendicular por el metodo descrito en el libro (sin usar
el sistema de ecuaciones que representa a M).
Considere el hiperplano x
1
+x
2
+x
3
+x
4
= 1 y el punto P = (1, 1, 0, 0). Encuen-
tre la direccion, pie y longitud de la perpendicular de P al hiperplano. Encuentre
un vector ortogonal a M y al hiperplano dado.
23. Sea f : R
4
R
4
dada por
y
i
= t
i
+
4
k=1
a
ik
x
k
i = 1, 2, 3, 4
un movimiento rgido (las coordenadas se suponen dadas en [O; e
1
, e
2
, e
3
, e
4
].
Sean P
1
, P
2
, P
3
, P
4
tales que
OP
i
= e
i
i = 1, 2, 3, 4, O
= f(O), P
i
= f(P
i
) i =
1, 2, 3, 4. Verique que la matriz (a
ij
) es ortogonal. Sea e
i
=
O
i
i = 1, 2, 3, 4,
sea P = (x
1
, x
2
, x
3
, x
4
). Encuentre las coordenadas de P en el sistema de coorde-
nadas [O
; e
1
, e
2
, e
3
, e
4
]. Cual es la ecuacion del hiperplano x
1
+x
2
+x
3
+x
4
= 1
en el segundo sistema?
Bibliografa
[1] Lectures on Linear Algebra, Gelfand I. M., New York, Interscience (1961).
[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).
[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,
New York, Chelsea.
[4] Linear Algebra, Shilov G. E., Engelwood Clis, N. J., Prentice Hall (1961).
[5] Linear Algebra and Multi-dimensional Geometry, Emov N. V. - Rozendorn E.
R., Mir Publishers (1975).
131
Indice alfabetico
R
n
, 29
n-tupla, 2, 29
INDICE ALFAB
ETICO 133
Mutuamente ortogonales, 65
Norma, 83
Origen de un sistema de coordenadas, 91
Ortogonalidad, 65, 85
Ortonormalizacion de Gram-Schmidt, 104
Paralel ogramo, 86
lados del, 86
Paraleleppedo, 86
aristas del, 86
Paralelotopo, 86
aristas del, 86
Permutacion, 8
Impar, 9
Par, 9
Permutacion natural, 8
Producto de determinantes, 56
Producto escalar, 64
Proyeccion ortogonal, 105
Puntos, 63
Rango de un sistema de vectores, 37
Rango de una matriz, 38
Rango columna, 38
Rango la, 38
Recta, 63, 127
Reexion, 117
Reexion con respecto a un plano, 122
Reexion con respecto al origen, 123
Regla de Cramer, 8, 25
Rotacion, 118
Rotacion en torno a un eje, 121, 122
Segmento, 63
dirigido, 63
Punto nal, 63
Punto inicial, 63
Puntos extremos, 63
Sistema afn de coordenadas, 73
Sistema de coordenadas, 91
Sistema de coordenadas cartesianas, 98
Sistema de ecuaciones compatible, 2
Sistema de ecuaciones compatible deter-
minado, 2, 5
Sistema de ecuaciones compatible indeter-
minado, 2, 5
Sistema de ecuaciones incompatible, 2, 4
Sistema fundamental de soluciones, 51
Sistema homogeneo de ecuaciones lineales,
2, 6
Sistema linealmente independiente maxi-
mal, 32
Sistema ortonormal de vectores, 98
Sistemas de coordenadas, 91
Sistemas de ecuaciones equivalentes, 2
Sistemas de vectores equivalentes, 34
Solucion de un sistema de ecuaciones line-
ales, 2
Solucion de una ecuacion lineal, 1
Subespacio, 65
Subespacio de soluciones de un sistema
homogeneo, 79
Subespacio generado por un conjunto de
vectores, 65
Suma de subespacios, 68
Sustitucion, 10
Impar, 10
par, 10
Termino libre, 1
Teorema de Laplace, 23
Transformacion de coordenadas, 93
Transformaciones elementales de una ma-
triz, 42
Transposicion, 8
Traslacion, 121
Vandermonde
Determinante de, 18
Matriz de, 18
Variedad lineal, 72
Variedades lineales paralelas, 74
Variedades lineales y sistemas de ecuaciones,
95
Vectores, 29, 63
Diferencia de vectores, 30
Inverso aditivo, 29, 64
Producto por un n umero escalar, 30,
64
Propiedades, 63
Suma de vectores, 29, 64
Vector nulo, 29, 63
Vol umenes y sistemas de coordenadas carte-
sianas, 97
Volumen de un paralelotopo n-dimensional,
86, 89