Sei sulla pagina 1di 137

Conceptos Basicos de Algebra Lineal

y Geometra Multidimensional
Alvaro Cofre
Duvan Henao
ii

Indice general
1. Sistemas de ecuaciones lineales 1
1.1. El metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . 3
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Teorema de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5. La regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2. Relaciones de dependencia lineal 29
2.1. El espacio vectorial R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Dimension del espacio vectorial R
n
. . . . . . . . . . . . . . . . . . . . . 31
2.4. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . . . . . 35
2.5. Rango de matrices y dependencia lineal . . . . . . . . . . . . . . . . . . 37
2.6. Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7. Soluciones de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . 46
2.7.1. Compatibilidad para sistemas no homogeneos . . . . . . . . . . . 46
2.7.2. Sistemas homogeneos . . . . . . . . . . . . . . . . . . . . . . . . 51
2.7.3. Soluciones para sistemas arbitrarios . . . . . . . . . . . . . . . . 53
3.

Algebra de matrices 55
3.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3. Representacion matricial de un sistema de ecuaciones . . . . . . . . . . . 60
3.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . 61
4. Vectores en R
n
63
4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2. Subespacios de vectores en R
n
. . . . . . . . . . . . . . . . . . . . . . . 65
4.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4. Subespacios de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5. Distancia y Volumen en R
n
83
5.1. Metrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. Vol umenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85
6. Sistemas de coordenadas 91
6.1. Transformacion de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 95
6.3. Vol umenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97
iii
iv

INDICE GENERAL
6.4. Deformacion continua de sistemas de coordenadas . . . . . . . . . . . . 100
6.5. Construccion de sistemas ortonormales . . . . . . . . . . . . . . . . . . . 104
6.6. Distancia y Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . 105
7. Movimientos Rgidos 111
7.1. Movimientos rgidos en R
2
. . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.2. Movimientos rgidos en R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . 118
8. Problemas propuestos 125
Captulo 1
Sistemas de ecuaciones
lineales
Nota: La palabra n umero designa a un elemento de un campo K. En nuestro caso
K es el campo de los n umeros reales o bien el de los complejos.
Denicion 1.1 Llamaremos ecuacion lineal con n incognitas a una ecuacion del tipo
a
1
x
1
+a
2
x
2
+ a
n
x
n
= b (1.1)
Los n umeros a
1
, . . . , a
n
se llaman coecientes de las incognitas, al n umero b se le
llama termino libre . Diremos que la coleccion ordenada de n umeros (k
1
, k
2
, . . . , k
n
)
es una solucion de la ecuacion si
a
1
k
1
+a
2
k
2
+ +a
n
k
n
= b
Si b = 0 la ecuacion se dice homogenea .
Puesto que alguno de los coecientes a
i
en (1.1) debe ser distinto de cero, podemos
suponer que a
1
,= 0. Asignemos valores arbitrarios k
2
, k
3
, . . . , k
n
a las incognitas x
2
,
x
3
, . . . , x
n
, entonces
x
1
=
b a
2
k
2
a
3
k
3
a
n
k
n
a
1
.
Claramente, la coleccion ordenada
_
ba
2
k
2
a
n
k
n
a
1
, k
2
, k
3
, . . . , k
n
_
es una posible solu-
cion de la ecuacion. Puesto que esta es solucion independientemente de cuales son los
valores de k concluimos que (1.1) tiene innitas soluciones.
Denicion 1.2 Sean
a
1
x
1
+ +a
n
x
n
= c
1
(1.2)
b
1
x
1
+ +b
n
x
n
= c
2
(1.3)
Sean , n umeros arbitrarios. Diremos que la ecuacion
(a
1
x
1
+ +a
n
x
n
) +(b
1
x
1
+ +b
n
x
n
) = c
1
+c
2
(1.4)
es combinacion lineal de las ecuaciones (1.2) y (1.3).
1
2 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Sea (k
1
, k
2
, . . . , k
n
) una solucion com un de (1.2) y (1.3). Entonces
(a
1
k
1
+ +a
n
k
n
) +(b
1
k
1
+ +b
n
k
n
) = c
1
+c
2
y (k
1
, k
2
, . . . , k
n
) es solucion de (1.4).
Se concluye que si una ecuacion es combinacion lineal de dos o mas ecuaciones lineales
entonces toda solucion com un de las ecuaciones que participan en la combinacion lineal
es solucion de la ecuacion.
Nota: A una coleccion ordenada del tipo (k
1
, k
2
, . . . , k
n
) la llamaremos n-tupla.
Denicion 1.3 Consideremos el sistema de ecuaciones lineales de m ecuaciones con
n incognitas
a
11
x
1
+ +a
1n
x
n
= c
1
.
.
.
a
n1
x
1
+ +a
mn
x
n
= c
m
Diremos que la n-tupla (k
1
, k
2
, . . . , k
n
) es solucion del sistema si es solucion de cada
una de las m ecuaciones del sistema. Si c
1
= c
2
= = c
m
= 0 diremos que el sistema
es homogeneo .
Denicion 1.4 Sean
a
11
x
1
+ +a
1n
x
n
= c
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= c
m
(1.5)
b
11
x
1
+ +b
1n
x
n
= d
1
.
.
.
b
m1
x
1
+ +b
mn
x
n
= d
m
(1.6)
Supongamos que cada ecuacion del sistema (1.5) es combinacion lineal de las ecua-
ciones del sistema (1.6) y viceversa. Diremos que los sistemas (1.5) y (1.6) son equiv-
alentes .
Teorema 1.5 Dos sistemas equivalentes tienen exactamente las mismas soluciones.
Demostracion: Sea (k
1
, . . . , k
n
) solucion de (1.5). Considere la primera ecuacion de
(1.6). Ella es una combinacion lineal de las ecuaciones del primer sistema. Puesto que
(k
1
, k
2
, . . . , k
n
) es una solucion com un entonces es solucion de la primera ecuacion del
sistema (1.6).
Razonando analogamente para cada una de las ecuaciones del sistema (1.6) hemos
demostrado que cada solucion del sistema (1.5) es solucion del sistema (1.6). El mismo
argumento permite demostrar que toda solucion de (1.6) es solucion de (1.5).
Supongamos ahora que (1.6) no tiene solucion. Entonces (1.5) tampoco puede tenerla
y viceversa. Se concluye que (1.5) y (1.6) tienen exactamente las mismas soluciones.
Denicion 1.6 Si un sistema de ecuaciones lineales tiene solucion diremos que es
compatible . Si tiene exactamente una solucion diremos que es compatible determi-
nado , si tiene mas de una solucion diremos que es compatible indeterminado . Si no
tiene solucion diremos que es incompatible .
1.1. EL M

ETODO DE ELIMINACI

ON DE GAUSS 3
1.1. El metodo de eliminacion de Gauss
Consideremos el sistema
a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
(1.7)
Caso 1: El coeciente de x
1
es distinto de cero en alguna de las ecuaciones. En tal
caso podemos suponer que a
11
,= 0 (si es necesario reordenamos las ecuaciones).
Caso 2: Si a
ij
= 0, j = 1, . . . , m simplemente tenemos un sistema de m ecuaciones con
n 1 incognitas.
Supongamos entonces que a
11
,= 0. Reemplacemos el sistema (1.7) por un nuevo sis-
tema equivalente, que por lo tanto tiene exactamente las mismas soluciones que (1.7).
Denotemos por EC
i
a la i-esima ecuacion del sistema (1.7). Construyamos el nuevo
sistema deniendo sus ecuaciones de la manera siguiente:
Ecuacion 1 = EC
1
Ecuacion 2 = EC
2

a
21
a
11
EC
1
Ecuacion 3 = EC
3

a
31
a
11
EC
1
.
.
.
Ecuacion m = EC
m

a
m1
a
11
EC
1
Obtenemos as un nuevo sistema equivalente a (1.7)
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a

22
x
2
+ +a

2n
x
n
= b

2
a

32
x
2
+ +a

3n
x
n
= b

3
.
.
.
a

m2
x
2
+ +a

mn
x
n
= b

m
(1.8)
Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir facilmente como
combinacion lineal de las ecuaciones de (1.8), es por esto que son equivalentes.
Caso 1: El coeciente de x
2
es distinto de cero en alguna de las ecuaciones 2, 3, . . . , m.
Caso 2: Si a

2j
= 0 j = 2, 3, . . . , m, procedemos a la eliminacion de la incognita x
3
.
Supongamos entonces que a

22
,= 0, hacemos lo mismo en (1.8). Denotemos por EC

i
a la
ecuacion i-esima del sistema, y por EC

i
a la ecuacion i-esima del sistema a construir.
4 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Denimos entonces al nuevo sistema por
EC

1
= EC

1
EC

2
= EC

2
EC

3
= EC

3

a

32
a

22
EC

2
EC

4
= EC

4

a

42
a

22
EC

2
.
.
.
EC

m
= EC

m

a

m2
a

22
EC

2
Obtenemos as un sistema equivalente a (1.8) (y por lo tanto equivalente a (1.7))
a
11
x
1
+a
12
x
2
+a
13
x
3
+ +a
1n
x
n
= b
1
a

22
x
2
+a

23
x
3
+ +a

2n
x
n
= b

2
a

33
x
3
+ +a

3n
x
n
= b

3
.
.
.
a

m3
x
3
+ +a

mn
x
n
= b

m
Nota: Si en alguna parte del proceso alguna ecuacion tiene todos los coecientes y el
termino libre iguales a cero, podemos suprimirla puesto que la ecuacion
0 x
1
+ 0 x
2
+ + 0 x
n
= 0
es satisfecha por cualquier n-tupla (k
1
, k
2
, . . . , k
n
).
Sin en alguna parte del proceso alguna ecuacion tiene todos los coecientes iguales a
cero y el termino libre distinto de 0 debemos concluir que el sistema es incompatible .
Supongamos que el sistema es compatible. En tal caso pueden presentarse solo dos
situaciones:
i) Despues de k 1 etapas, las incognitas x
k+1
, x
k+2
, . . . , x
n
quedan todas elimi-
nadas producto de suprimir ecuaciones del tipo 0 x
1
+ + 0 x
n
= 0. En tal
caso el sistema queda con forma trapezoidal
a
11
x
1
+a
12
x
2
+a
13
x
3
+ +a
1k
x
k
+ a
1n
x
n
= b
1
a

22
x
2
+a

23
x
3
+ +a

2k
x
k
+ +a

2n
x
n
= b

2
a

33
x
3
+ +a

3k
x
k
+ +a

3n
x
n
= b

3
.
.
.
a
(k1)
kk
x
k
+ +a
(k1)
kn
x
n
= b
(k1)
k
,
con a
11
,= 0, a

22
,= 0, , a
(k1)
kk
,= 0, donde k < m y k < n. Como a
(k1)
kk
,= 0
podemos asignar valores arbitrarios a x
k+1
, x
k+2
, . . . , x
n
en la ultima ecuacion y
despejar x
k
. Luego reemplazamos en la pen ultima ecuacion y despejamos x
k1
y as sucesivamente hasta llegar hasta x
1
. Hemos obtenido as una solucion que
depende de n (k 1) parametros arbitrarios (nadie arma que sea la unica), el
1.1. EL M

ETODO DE ELIMINACI

ON DE GAUSS 5
sistema es compatible indeterminado .
Ejemplo:
x
1
x
2
+ 2x
3
+x
4
= 1
x
1
+ 2x
2
x
3
x
4
= 0
3x
1
+ 0 x
2
+ 3x
3
+x
4
= 2
2x
1
2x
2
+ 4x
3
+ 2x
4
= 2
Eliminemos x
1
:
x
1
x
2
+ 2x
3
+x
4
= 1
3x
2
3x
3
2x
4
= 1
3x
2
3x
3
2x
4
= 1
0 x
2
+ 0 x
3
+ 0 x
4
= 0
Eliminemos x
2
:
x
1
x
2
+ 2x
3
x
4
= 1
3x
2
3x
3
2x
4
= 1
0 x
3
+ 0 x
4
= 0
Tenemos k = 3. Tenemos una solucion que depende de 4 (3 1) parametros
arbitrarios. En la segunda ecuacion sea x
3
= , x
4
= entonces x
2
=
1
3
[3+2
1]. Reemplazando en la primera se tiene
x
1
=
1
3
[3 + 2 1] 2 + + 1 = +
5
3
+
2
3
Obtenemos as una solucion
_
+
5
3
+
2
3
, +
2
3

1
3
, ,

donde y son
n umeros arbitrarios. Tenemos entonces innitas soluciones, una para cada par de
valores de y .
ii) Si k = n el sistema tiene forma triangular
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a

22
x
2
+ +a

2n
x
n
= b

2
.
.
.
a
(n1)
nn
x
n
= b
(n1)
n
Es claro que en este caso el sistema tiene exactamente una solucion puesto que la
ultima ecuacion determina el valor de x
n
en forma unica y la pen ultima determina
el valor de x
n1
en forma unica, etc.
Ejemplo:
x
1
+x
2
+x
3
= 0
2x
1
+ 2x
2
x
3
= 1
x
1
+x
2
3x
3
= 1
6 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Eliminemos x
1
:
x
1
+x
2
+x
3
= 0
3x
3
= 1
2x
2
2x
3
= 1
Reordenemos las ecuaciones:
x
1
+x
2
+x
3
= 0
2x
2
2x
3
= 1
3x
3
= 1
Luego x
3
=
1
3
, 2x
2
= 2(
1
3
) + 1 x
2
=
1
6
, x
1
=
1
6
+
1
3
=
1
6
.
Si el sistema es homogeneo, puesto que (0, 0, . . . , 0) es siempre solucion tenemos solo
las alternativas de compatible determinado si k = n y compatible indeterminado si
k < n. Tenemos as:
Todo sistema homogeneo de m ecuaciones con n incognitas con m < n es compatible
indeterminado (solo puede ser reducido a la forma trapezoidal).
Llamaremos matriz del sistema al cuadro rectangular de mn n umeros
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
y matriz ampliada del sistema a
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
b
m
_
_
_
_
_
Estas deniciones permiten escribir un sistema en forma sintetica.
Ejemplo: El sistema
x
1
+ 2x
2
+ 5x
3
= 9
x
1
x
2
+ 3x
3
= 2
3x
1
6x
2
x
3
= 25
puede escribirse como
_
_
1 2 5 9
1 1 3 2
3 6 1 25
_
_
y pueden hacerse las mismas transformaciones que realizaramos con las ecuaciones
del sistema con las las de la matriz ampliada, as eliminando x
1
obtenemos
_
_
1 2 5 9
0 3 2 11
0 12 16 52
_
_
1.1. EL M

ETODO DE ELIMINACI

ON DE GAUSS 7
Eliminando x
2
:
_
_
1 2 5 9
0 3 2 11
0 0 8 8
_
_
luego x
1
= 2, x
2
= 3, x
3
= 1.
Ejemplo: Resolver el sistema
_
_
_
_
1 5 8 1 3
3 1 3 5 1
1 0 7 2 5
0 11 20 9 2
_
_
_
_
Eliminamos x
1
:
_
_
_
_
1 5 8 1 3
0 16 21 8 8
0 5 1 1 8
0 11 20 9 2
_
_
_
_
Antes de eliminar x
2
, restemos la segunda ecuacion a la cuarta
_
_
_
_
1 5 8 1 3
0 16 21 8 8
0 5 1 1 8
0 5 1 1 10
_
_
_
_
Podemos ver de inmediato que el sistema es incompatible.
Ejemplo: Resolver el sistema
_
_
4 1 3 1 0
2 3 1 5 0
1 2 2 3 0
_
_
Puesto que el sistema es homogeneo, omitimos la columna de los terminos libres y
permutamos la primera y la tercera ecuacion:
_
_
1 2 2 3
2 3 1 5
4 1 3 1
_
_

_
_
1 2 2 3
0 7 5 11
0 9 5 13
_
_

_
_
1 2 2 3
0 7 5 11
0 0
10
7
8
7
_
_
Tomemos x
4
= arbitrario entonces x
3
=
4
5
luego
7x
2
+ 4 11 = 0 x
2
=
y
x
1
= 2 +
8
5
3 =
3
5

8 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


1.2. Determinantes
El metodo de Gauss nos permite resolver un sistema de ecuaciones pero no propor-
ciona un criterio de compatibilidad en terminos de los coecientes de las incognitas y
los terminos libres, menos a un una formula que permita encontrar los valores de las
incognitas. Sin embargo, una modicacion de dicho metodo aplicado a sistemas de dos
ecuaciones con dos incognitas y tres ecuaciones con tres incognitas permite deducir
la llamada regla de Cramer, previa introduccion de un nuevo ente matematico: el
determinante . Primero nos abocaremos a la tarea de introducir esta nueva nocion
para lo cual necesitamos algunos conceptos auxiliares.
Sea M un conjunto nito formado por n elementos a los cuales ponemos etiquetas
distintas con los n umeros 1, 2, . . . , n. Podemos llamar i
1
al objeto que tiene la etiqueta
con el n umero 1, i
2
al objeto que tiene la etiqueta con el n umero 2, . . . , i
n
al objeto que
tiene la etiqueta con el n umero n. Decimos que i
1
, i
2
, . . . , i
n
constituyen un conjunto
de n smbolos y como la naturaleza de los objetos no va a jugar papel alguno en lo
que sigue supondremos simplemente que el conjunto de n smbolos esta formado por
los n umeros 1, 2, . . . , n. Dichos smbolos pueden ser ordenados en una la de diversas
maneras. Por ejemplo, si n = 3 podemos ordenarlos de 6 maneras distintas, a saber:
1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2, 3 2 1 .
En general, si tenemos n smbolos, el primero de una la puede ser elegido de n
maneras. Por cada una de ellas tenemos n 1 maneras de elegir el segundo. Por cada
una de las n(n 1) maneras de elegir los dos primeros tenemos n 2 maneras de
elegir el tercero, as para elegir los tres primeros tenemos n(n 1)(n 2) maneras.
Continuando la argumentacion hasta agotar los recursos tenemos que con n smbolos
podemos formar
n(n 1)(n 2) (n (n 2))(n (n 1)) = n!
las distintas. A cada una de las las la llamaremos una permutacion de ellos y a la
la 1 2 3 n que sigue el orden natural la llamaremos permutacion natural.
Denicion 1.7 Si en una permutacion cualquiera intercambiamos dos smbolos cua-
lesquiera (no necesariamente contiguos) dejando todos los demas en su sitio obtenemos
una nueva permutacion. Decimos que esta nueva permutacion ha sido obtenida de la
original mediante una trasposicion.
Por ejemplo, si n = 5, 5 2 3 4 1 se obtiene de la permutacion natural intercambiando 1
y 5.
Teorema 1.8 Consideremos las n! permutaciones de n smbolos. Ellas pueden ser
escritas en una lista tal que cada permutacion que aparece en la lista puede ser obtenida
de la anterior mediante una trasposicion, y la lista puede empezar con cualquiera de
ellas.
Demostracion: El teorema es cierto para n = 2. Supongamos que ha sido demostrado
para n = k y consideremos todas las permutaciones de k + 1 smbolos. Empecemos la
lista con una cualquiera de ellas, digamos
i
1
i
2
i
3
i
k
i
k+1
1.2. DETERMINANTES 9
y a continuacion escribamos todas aquellas que empiezan con i
1
las cuales son k!. Como
el smbolo i
1
queda jo, cada una de ellas puede ser considerada como una permutacion
de k smbolos y por lo tanto, por la hipotesis de induccion, pueden ser escritas en una
lista en que cada una diere de la anterior en una trasposicion llevada a cabo en los
smbolos i
2
, i
3
, . . . , i
k+1
y empezando precisamente con i
1
i
2
i
3
i
k
i
k+1
.
Veamos la ultima de esta lista preliminar. En ella transpongamos i
1
con i
2
y repitamos
el proceso. Por este metodo construmos una lista de permutaciones donde hay k!
permutaciones que empiezan con i
1
, k! que empiezan con i
2
, . . . , k! que empiezan con
i
k+1
; en total k!(k + 1) = (k + 1)! permutaciones distintas en que cada una diere de
la anterior en una trasposicion.
Corolario 1.9 Dada una permutacion de n smbolos, a partir de ella es posible obtener
otra cualquiera mediante una sucesion de transposiciones.
Denicion 1.10 Sea i
1
i
2
i
n
una permutaci on cualquiera. Diremos que los smbolos
i
s
e i
t
forman una inversion si i
s
> i
t
pero s < t.
Por ejemplo, si n = 5 en
3 2 4 1 5
i
1
= 3, i
2
= 2, i
3
= 4, i
4
= 1, i
5
= 5.
Entonces i
1
e i
2
forman una inversion: i
1
> i
2
pero s = 1 < t = 2. i
3
e i
4
forman una
inversion: i
3
> i
4
pero s = 3 < t = 4.
Denicion 1.11 Una permutacion se dice par si sus smbolos forman un n umero par
de inversiones, impar si forman un n umero impar de inversiones.
Por ejemplo, si n = 6, 3 2 1 6 4 5 es impar, 3 2 1 4 6 5 es par.
Teorema 1.12 Una trasposicion cambia la paridad de una permutacion.
Demostracion: Supongamos que los smbolos a trasponer son contiguos
i
1
i
2
k l i
n
Al trasponer obtenemos i
1
i
2
l k i
n
donde la disposicion de k y l con respecto a
los restantes n 2 smbolos no ha cambiado luego al pasar de k l a l k quitamos una
inversion o agregamos una.
Supongamos ahora que entre k y l hay s smbolos
k i
r
i
r+1
i
r+s1
l
Pasamos a i
r
i
r+1
i
r+s1
l k mediante s+1 trasposiciones y luego a l i
r
i
r+1
i
r+s1
k
mediante s trasposiciones mas. En total para obtener la ultima permutacion de la
primera realizamos 2s +1 trasposiciones de terminos contiguos, cada una de las cuales
cambio la paridad de la permutacion (primera parte de la demostracion) luego si era
par ahora es impar y viceversa.
10 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Corolario 1.13 El n umero de permutaciones pares es igual al n umero de permuta-
ciones impares.
Demostracion: Hagamos una lista en que cada una diere de la anterior por una
trasposicion. Como para n 2 n! es par hay
n!
2
de cada tipo.
Denicion 1.14 Sea M el conjunto de n smbolos, sea f : M M 1-1 y sobre.
Diremos que f es una sustitucion de grado n.
Sean i
1
i
2
i
n
y
i
1

i
2

i
n
dos permutaciones de M, sea A el cuadro
_
i
1
i
2
i
n

i
1

i
2

i
n
_
(1.9)
Podemos interpretar el cuadro de la siguiente manera: la primera la es el dominio
M de una funcion f : M M y la segunda la es su recorrido de modo tal que
f(i
j
) =
i
j
, j = 1, 2, . . . , n. A la inversa, cada funcion f : M M que sea 1-1 y sobre
puede ser representada por uno de estos cuadros. Es claro que podemos identicar al
conjunto de estos cuadros con el de las sustituciones de grado n; tambien es claro que
cada sustitucion admite diversas representaciones, por ejemplo
_
1 2 3
3 2 1
_
,
_
3 1 2
1 3 2
_
representan la misma sustitucion de grado 3. En general, lo que dene a (1.9) es la
asignacion f(i
j
) =
i
j
luego siempre es posible obtener, mediante trasposiciones de
columnas, una representacion de la forma
_
1 2 3 n

1

2

3

n
_
(1.10)
Lo que no se puede hacer es intercambiar el orden de las dos las porque ellas juegan
distintos papeles, as
_
2 1 4 3
4 3 1 2
_
y
_
4 3 1 2
2 1 4 3
_
son distintas sustituciones de grado 4, en la primera f(2) = 4 en tanto que en la se-
gunda f(2) = 3. De (1.10) es claro que hay n! sustituciones de grado n.
Volvamos a (1.9) y consideremos la paridad de ambas las. Cualquier trasposicion
de dos columnas de (1.9) hace cambiar solidariamente la paridad de ambas las, si
ellas tienen la misma paridad en una representacion ellas tendran la misma paridad
en cualquier otra, analogamente para el caso de paridad opuesta. Se concluye que el
que ambas las tengan la misma paridad o paridad opuesta no depende de la repre-
sentacion de la sustitucion luego podemos denir
Denicion 1.15 Diremos que una sustitucion de grado n es par si en alguna repre-
sentacion ambas las tienen la misma paridad y diremos que es impar si en alguna
representacion ambas tienen paridad opuesta.
1.2. DETERMINANTES 11
Nota: La sustitucion identidad
_
1 2 3 n
1 2 3 n
_
se considera par.
De (1.10) se concluye que hay
n!
2
sustituciones pares y
n!
2
sustituciones impares (n 2).
Tambien es claro que si una sustitucion de grado n es par la suma del n umero de
inversiones de ambas las es par y si es impar dica suma tambien es impar. Se concluye
que para juzgar la paridad de una sustitucion de grado n es conveniente favorecer la
representacion
_
1 2 3 n

1

2

3

n
_
.
Puesto que la primera la tiene 0 inversiones, la paridad de la sustitucion esta deter-
minada por el n umero de inversiones de la permutacion
1

2

n
.
Ejemplo:
_
3 1 4 5 2
2 5 4 3 1
_
es la misma sustitucion de grado 5 que
_
1 2 3 4 5
5 1 2 4 3
_
.
Puesto que la permutaci on 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitu-
cion dada es impar.
Estamos listos para introducir el concepto de determinante . Sea
(a
ij
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
una matriz cuadrada de orden n. Consideremos todos los productos posibles de n
elementos de (a
ij
) donde cada producto contiene exactamente un elemento de cada
la y uno de cada columna, esto es, todos los productos de la forma
a
1
1
a
2
2
a
n
n
(1.11)
donde
1

2

n
es una permutacion de los ndices 1,2,. . . , n. Puesto que para formar
(1.11) podemos elegir primero un elemento de la primera la de (a
ij
), a saber a
1
1
,
luego uno de la segunda la, a saber a
2
2
(donde a
2
2
no puede estar en la columna

1
, esto es,
1
,=
2
), luego uno de la tercera la a saber a
3

3
(donde a
3
3
no puede
estar en las columnas
1
o
2
, esto es
1
,=
2
,=
3
) y as continuamos hasta la la
n, podemos concluir que hay n! de estos productos ya que en (1.11) los ndices la
siempre pueden escribirse en el orden natural.
Cada uno de los productos (1.11) tiene naturalmente un signo. Si la sustitucion
_
1 2 3 n

1

2

3

n
_
es par le mantenemos dicho signo, si es impar lo multiplicamos por -1.
A la suma algebraica de estos n! productos de la forma (1.11) con los signos adju-
dicados mediante la regla recien enunciada lo llamaremos determinante de orden n
correspondiente a la matriz (a
ij
). Si n = 1 diremos que a
11
es el determinante de
12 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


orden 1 de la matriz (a
11
).
Al determinante de la matriz (a
ij
) lo denotaremos por
det(a
ij
)

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

Ejemplo: Sea
(a
ij
) =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
Hay 6 productos de la forma (1.11)
a
1
1
a
2
2
a
3
3
donde debemos rellenar
1
,
2
,
3
con todas las permutaciones posibles de los ndices
1,2,3. Los 6 productos posibles son
a
11
a
22
a
33
a
12
a
23
a
31
a
13
a
21
a
32
correspondientes a las permutaciones pares 1 2 3, 2 3 1, 3 1 2, ellos
mantienen su signo. Los otros 3 son
a
12
a
21
a
33
a
11
a
23
a
32
a
13
a
22
a
31
correspondientes a las permutaciones impares 2 1 3, 1 3 2, 3 2 1,
ellos deben ser multiplicados por -1. Luego
det(a
ij
) = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
12
a
21
a
33
a
11
a
23
a
32
a
13
a
22
a
31
1.3. Propiedades del determinante
Denicion 1.16 Sea (a
ij
) una matriz cuadrada de orden n. A la matriz cuadrada
de orden n (b
ij
), donde b
ij
= a
ji
i = 1, 2, . . . , n, j = 1, 2, . . . , n la llamaremos la
traspuesta de (a
ij
), se anota
(b
ij
) = (a
ij
)
t
Es claro que (b
ij
) se obtiene de (a
ij
) poniendo las las de a
ij
como columnas de b
ij
.
Ejemplo:
(a
ij
) =
_
_
1 3 5
2 1 4
1 1 1
_
_
(a
ij
)
t
=
_
_
1 2 1
3 1 1
5 4 1
_
_
En general si
(a
ij
) =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
(a
ij
)
t
=
_
_
_
_
_
a
11
a
21
a
n1
a
12
a
22
a
n2
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
a
nn
_
_
_
_
_
1.3. PROPIEDADES DEL DETERMINANTE 13
Nota: Cada producto a
1
1
a
2
2
a
n
n
se llama un termino del determinante.
Propiedad 1: det(a
ij
) = det(a
ij
)
t
Es evidente que ambos determinantes tienen los mismos terminos, hay que demostrar
que el mismo termino tiene el mismo signo en det(a
ij
) y en det(a
ij
)
t
. Sea
a
1
1
a
2
2
a
n
n
un termino de det(a
ij
). Si llamamos (b
ij
) = (a
ij
)
t
tal termino es en det(b
ij
)
b

1
1
b

2
2
b

n
n
.
Si reordenaramos los factores de modo que el producto quede en la forma canonica
b
1
1
b
2
2
b
n
n
esto sera lo mismo que llevar la sustitucion
_

1

2

n
1 2 n
_
a la forma
_
1 2 3 n

1

2

3

n
_
.
Pero esta ultima tiene la misma paridad que
_

1

2

n
1 2 n
_
la cual a su vez
tiene la misma paridad que
_
1 2 3 n

1

2

3

n
_
(la suma del n umero de in-
versiones es la misma).
Se concluye que a
1
1
a
2
2
a
n
n
tiene el mismo signo considerado como termino de
det(b
ij
).
De la propiedad 1 se deduce que cualquier armacion sobre las las del determinante
es validad para sus columnas y viceversa, por esta razon las propiedades que siguen
solo se demostraran para las las del determinante.
Propiedad 2: Si para alg un i, 1 i n, a
ij
= 0 j = 1, 2, . . . , n entonces
det(a
ij
) = 0.
En efecto, cada termino contiene un factor de la i-esima la (denicion de determi-
nante) luego todos los terminos son iguales a cero.
Propiedad 3: Si un determinante se obtiene de otro permutando dos las todos los
terminos del primer determinante seran terminos del segundo pero con signos contra-
rios, es decir, al permutar dos las el determinante solo cambia de signo.
Supongamos que permutamos las las i y j, i < j. Sea (b
ij
) la matriz que se obtiene
al permutar las las.
Consideremos un termino cualquiera del determinante original,
a
1
1
a
2
2
a
i
i
a
j
j
a
n
n
y su signo esta determinado por la paridad de
_
1 2 i j n

1

2

i

j

n
_
14 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


En el nuevo determinante el es
b
1
1
b
2
2
b
j
i
b
i
j
b
n
n
(a
i
i
pasa a la la j pero permanece en la columna
i
, analogamente para a
j
j
) y su
signo esta determinado por la paridad de
_
1 2 j i n

1

2

i

j

n
_
Puesto que 1 2 j i n se obtiene de 1 2 i j n mediante una trasposi-
cion, ambas permutaciones tienen paridad contraria y por consiguiente ambas sustitu-
ciones tienen paridad contraria.
Se concluye que a
1
1
a
2
2
a
n
n
aparece en el nuevo determinante con signo opuesto
al que tena en el determinante original.
Propiedad 4: Un determinante con dos las iguales es igual a cero.
Supongamos que det(a
ij
) = d y supongamos que las las i, j son iguales. Entonces al
intercambiar las las i, j obtenemos el mismo determinante, pero por la propiedad 3,
obtenemos el determinante con signo opuesto luego d = d d = 0.
Propiedad 5: Si se multiplican todos los elementos de una la del determinante por
un n umero k, el determinante queda multiplicado por k.
Supongamos que multiplicamos todos los elementos de la la i por k. Por la denicion
de determinante cada termino queda multiplicado por k.
Nota: El factor com un de todos los elementos de una la puede ser extrado como
un factor del determinante.
Ejemplo:

2 4 6
a b c
d e f

= 2

1 2 3
a b c
d e f

Propiedad 6: Un determinante con dos las proporcionales es igual a cero.


Supongamos que a
ir
= ka
jr
r = 1, 2, . . . , n. Por la propiedad 5 es posible extraer factor
com un de la la j, queda as un determinante con dos las iguales.
Propiedad 7: Escribamos la i-esima la de det(a
ij
) como
a
ij
= b
j
+c
j
j = 1, 2, . . . , n.
Entonces det(a
ij
) es igual a la suma de dos determinantes cuyas las son, salvo la la
i, las mismas que las del original, y la la i del primer sumando es b
1
b
2
b
n
y la la
i del segundo sumando es c
1
c
2
c
n
.
1.3. PROPIEDADES DEL DETERMINANTE 15
En efecto,
a
1
1
a
2
2
a
n
n
= a
1
1
a
2
2
(b
j
+c
j
) a
n
n
= a
1
1
b
j
a
n
n
+a
1
1
c
j
a
n
n
Pero el primer sumando es un termino del determinante original salvo que su la i ha
sido reemplazada por b
1
b
2
b
n
, analogamente para el segundo sumando.
Ejemplo:

3 3 3
a b c
d e f

1 + 2 2 + 1 0 + 3
a b c
d e f

1 2 0
a b c
d e f

2 1 3
a b c
d e f

Denicion 1.17 Diremos que la i-esima la de det(a


ij
) es combinacion lineal de las
demas las del determinante si hay constantes k
1
, k
2
, . . . , k
i1
, k
i+1
, . . . , k
n
tales
que
a
ij
=
i1

r=1
k
r
a
rj
+
n

r=i+1
k
r
a
rj
j = 1, 2, . . . , n
Ejemplo: Consideremos el determinante

a
1
a
2
a
3
b
1
b
2
b
3
a
1
+ 2b
1
a
2
+ 2b
2
a
3
+ 2b
3

La tercera la es combinacion lineal de las las 1 y 2, k


1
= 1, k
2
= 2, entonces
a
3j
=
2

r=1
b
r
a
rj
j = 1, 2, 3.
Nota: Es posible que algunos de los k
r
sean iguales a cero. En tal caso la la i es
combinacion lineal de algunas de las restantes las pero con la argucia de tomar los
restantes k
r
como iguales a cero podemos ngir que es combinacion lineal de todas
las las. En el caso en que todos los k
r
menos uno sean iguales a cero, por ejemplo
k
j
,= 0, obtenemos que la la i, i ,= j es combinacion lineal de la la j, esto es, la la
i es proporcional a la la j. Se concluye que la proporcionalidad se puede considerar
como un caso particular de combinacion lineal.
Propiedad 8: Si una de las las del determinante es combinacion lineal de las demas,
el determinante es igual a cero.
Supongamos que la i-esima la es combinacion lineal de las demas las. Descomponga-
mos el determinante en una suma de determinantes cuyas las son todas iguales a las
del determinante original salvo la i-esima, tal como lo permite la propiedad 7. Cada
uno de estos, o bien tiene una la de ceros, o bien tiene dos las proporcionales, en
ambos casos el sumando en cuestion es igual a cero.
16 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Propiedad 9: El determinante no cambia si a los elementos de una la se agregan
los elementos de otra la multiplicados por un mismo n umero.
Supongamos que a la i-esima la se le agrega la j-esima multiplicada por k. Obtenemos
un determinante cuya i-esima la es a
ir
+ka
jr
, r = 1, 2, . . . , n. Tal como antes usamos
la propiedad 7.
Nota: Es claro que el determinante no cambia si a una la se le agrega una combi-
nacion lineal de las demas.
Ejemplo: Calcule
=

am+bp an +bq
cm+dp cn +dq

usando la propiedad 7.
=

am an
am+dp cn +dq

bp bq
cm+dp cn +dq

am an
cm cn

am an
dp dq

bp bq
cm cn

bp bq
dp dq

= 0 +ad

m n
p q

+bc

p q
m n

+ 0 usando la propiedad 3
= ad

p q
m n

+bc

p q
m n

= (bc ad)

p q
m n

Ejemplo: Calcule
=

2 0 6 0 4
5 3 2 2 7
2 5 7 5 5
2 0 9 2 7
7 8 4 2 1

Por la propiedad 5
= 2

1 0 3 0 2
5 3 2 2 7
2 5 7 5 5
2 0 9 2 7
7 8 4 2 1

,
aplicando la propiedad 9 las las 2, 3, 4, 5 tenemos:
= 2

1 0 3 0 2
0 3 13 2 3
0 5 1 5 1
0 0 3 2 3
0 8 17 2 13

1.3. PROPIEDADES DEL DETERMINANTE 17


Por denicion de determinante, todos los terminos deben contener exactamente un
elemento de la primera columna, luego sobreviven solo aquellos sumandos que con-
tienen a a
11
= 1 y exactamente un elemento de las las 2, 3, 4, 5 y un elemento de las
columnas 2, 3, 4, 5. Entonces un termino tpico del desarrollo es de la forma
1 a
2
2
a
3
3
a
4
4
a
5
5
cuyo signo esta dado por la sutitucion
_
1 2 3 4 5
1
2

3

4

5
_
la cual tiene la misma paridad que la sustitucion de grado 4
_
2 3 4 5

2

3

4

5
_
(el conjunto M de smbolos es 2, 3, 4, 5) puesto que 1 no forma ninguna inversion con
los restantes smbolos. Se concluye que
= 2

3 13 2 3
5 1 5 1
0 3 2 3
8 17 2 13

= 2

3 13 2 3
5 1 5 1
0 3 2 3
0 5 5 11

=
2
15

15 65 10 15
15 3 15 3
0 3 2 3
0 5 5 11

=
2
15

15 65 10 15
0 68 5 18
0 3 2 3
0 5 5 11

= 2

68 5 18
3 2 3
5 5 11

= 2

63 5 18
1 2 3
0 5 11

= 2

1 2 3
63 5 18
0 5 11

= 2

1 2 3
0 121 171
0 5 11

= 2

121 171
5 11

= 2

1 93
5 11

= 2

1 93
0 476

= 2 476 = 952
Ejemplo: Encuentre las races de

1 1 2 3
1 2 x
2
2 3
2 3 1 5
2 3 1 9 x
2

= 0
Para x = 1 y para x = 1 las dos primeras las quedan iguales luego el polinomio es
divisible por (x 1)(x + 1). Analogamente para las las 3 y 4 con x = 2. Luego el
determinante (que es un polinomio de grado 4) es de la forma c(x
2
4)(x
2
1), nos
18 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


falta el valor de c. Haciendo x = 0 tenemos
4c =

1 1 2 3
1 2 2 3
2 3 1 5
2 3 1 9

1 1 2 3
0 1 0 0
2 3 1 5
0 0 0 4

Utilizando la misma argumentacion que en el ejercicio anterior vemos que un termino


tpico del determinante es a
1
1
a
2
2
a
3
3
a
44
, (a
44
= 4) luego
4c = 4

1 1 2
0 1 0
2 3 1

= 4

1 1 2
0 1 0
0 1 3

= 4

1 0
1 3

luego c = 3.
Ejemplo: Calcule el determinante de la matriz de n n dada por
a
ij
=
_
a si i ,= j
x si i = j
Sumando a la primera columna todas las demas queda el siguiente determinante:
a
i1
= x + (n 1)a , i = 1, 2, . . . , n
a
1j
= a , j = 2, 3, . . . , n
a
ij
= a , i ,= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
a
ii
= x , i = 2, 3, . . . , n
Luego el determinante es igual a [x+(n1)a], donde es el determinante dado por
a
i1
= 1 , i = 1, 2, . . . , n
a
1j
= a , j = 2, 3, . . . , n
a
ij
= a , i ,= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
a
ii
= x , i = 2, 3, . . . , n
Restemos la primera la a todas las demas las, aplicamos la misma argumentacion
que en ejercicios anteriores y tenemos que el determinante pedido es [x + (n 1)a]d
donde d es un determinante de orden (n 1) dado por
a
ij
=
_
0 i ,= j
x a i = j, i = 2, 3, . . . , n
El unico termino distinto de cero de dicho determinante es (x a)(x a) (x a)
(n 1 veces) y su signo esta dado por
_
2 3 n
2 3 n
_
luego el determinante pedido vale [x + (n 1)a](x a)
n1
.
Ejemplo: Calcule el determinante de Vandermonde
=

1 1 1
a
1
a
2
a
n
a
2
1
a
2
2
a
2
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
1
a
n1
2
a
n1
n

1.4. TEOREMA DE LAPLACE 19


En forma sucesiva restamos a la la k la la k 1 multiplicada por a
1
, k = n, n
1, n 2, . . . , 2. Entonces
=

1 1 1 1
0 a
2
a
1
a
3
1 a
n
a
1
0 a
2
(a
2
a
1
) a
3
(a
3
a
1
) a
n
(a
n
a
1
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
n2
2
(a
2
a
1
) a
n2
3
(a
3
a
1
) a
n2
n
(a
n
a
1
)

= (a
2
a
1
)(a
3
a
1
) (a
n
a
1
)d
donde d es un determinante de Vandermonde de orden n 1.
Por demostrar: El determinante de Vandermonde es igual al producto de todas las
diferencias posibles a
i
a
j
, 1 j < i n.
La armacion es verdadera para n = 2 y acabamos de demostrar que si es valida para
n 1 tambien es valida para n.
1.4. Teorema de Laplace
Puesto que es difcil calcular un determinante usando directamente la denicion, bus-
caremos un teorema que reduzca el calculo de un determinante de orden n a uno de
n 1, lo cual permite, en principio, remontarse al calculo de determinantes de orden
2.
Denicion 1.18 Sea d un determinante de orden n, sea k entero, 1 k n 1. En
la matriz (a
ij
) elegimos arbitrariamente k las y k columnas. Consideremos la matriz
formada por los elementos que estan en las intersecciones de las k las y k columnas
elegidas. Al determinante de orden k de esta matriz se le llama menor de orden k
del determinante d (es el determinante que se obtiene de borrar n k las y n k
columnas de d).
Ejemplo: Sea
d =

a
11
a
12
a
13
a
14
a
21
a
22
a
23
a
24
a
31
a
32
a
33
a
34
a
41
a
42
a
43
a
44

Un menor de orden 1 se obtiene escogiendo la la 2 y la columna 3, el menor es


[a
23
[ = a
23
.
Un menor de orden 2 se obtiene escogiendo las las 2,3 y las columnas 2, 4, el menor
es

a
22
a
24
a
32
a
34

.
Si borramos la la 1 y la columna 1 obtenemos el menor de orden 3 dado por

a
22
a
23
a
24
a
32
a
33
a
34
a
42
a
43
a
44

20 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Denicion 1.19 Sea M un menor de orden k de d, 1 k n1. Suprimamos las k
las y las k columnas en cuyas intersecciones se encuentra M. Las restantes (n k)
las y (n k) columnas forman un menor M

llamado el menor complementario de


M .
En el ejemplo previo, el menor complementario de

a
22
a
24
a
32
a
34

es

a
11
a
13
a
41
a
43

.
Denicion 1.20 Supongamos que el menor M de orden k se encuentra en las las
i
1
, i
2
, . . . , i
k
y en las columnas j
1
, j
2
, . . . , j
k
, sea M

su menor complementario. Si
S
M
= i
1
+i
2
+ +i
k
+j
1
+j
2
+ +j
k
,
llamaremos adjunto de M a (1)
S
M
M

.
En el ejemplo previo, el adjunto de

a
22
a
24
a
32
a
34

es
(1)
2+3+2+4

a
11
a
13
a
41
a
43

Lema 1.21 Sea d un determinante de orden n, sea M un menor de orden k, sea M

su menor complementario. Sea A un termino de M (con el signo que tiene en M),


sea B un termino de M

(con el signo que tiene en M

). Entonces (1)
S
M
AB es un
termino de d (con el signo que le corresponde en d)
Demostracion: Supongamos que M

esta formado por las primeras k las y primeras


k columnas. Como S
M
= 2(1 + 2 + + k), (1)
S
M
= 1. Sea A = a
1
1
a
2
2
a
k
k
,
su signo esta determinado por la sustitucion
_
1 2 3 k

1

2

3

k
_
,
sea l su n umero de inversiones. Un termino cualquiera de M

es
B = a
(k+1)
k+1
a
(k+2)
k+2
a
n
n
,
su signo en M

esta dado por


_
k + 1 k + 2 n

k+1

k+2

n
_
,
sea l

su n umero de inversiones.
AB tiene exactamente un factor de cada la y cada columna de d luego es un termino
de d. El signo de AB en el producto MM

esta determinado por (1)


l+l

, su signo en
d esta determinado por la sustitucion
_
1 2 k k + 1 k + 2 n

1

2

k

k+1

k+2

n
_
.
Pero como los no pueden formar inversion con los , ella tiene l +l

inversiones, su
signo en d tambien esta determinado por (1)
l+l

.
1.4. TEOREMA DE LAPLACE 21
Supongamos ahora que M

esta formado por las las i


1
< i
2
< < i
k
y las columnas
j
1
< j
2
< < j
k
. Llevemos el menor M al angulo superior izquierdo, esto es, mediante
trasposiciones de las y trasposiciones de columnas formamos un nuevo determinante
cuyas primeras k las y primeras k columnas son las k las y k columnas de M. Para
esto llevamos a cabo
(i
1
1) + (i
2
2) + + (i
k
k) = i
1
+i
2
+ +i
k

k(k + 1)
2
trasposiciones de las y
(j
1
1) + (j
2
2) + + (j
k
k) = j
1
+j
2
+ +j
k

k(k + 1)
2
trasposiciones de columnas, el nuevo determinante d

es igual a
(1)
i
1
+i
2
++i
k
+j
1
+j
2
++j
k
k(k+1)
d ,
pero k(k + 1) es par luego d

= (1)
S
M
d.
Puesto que en el proceso indicado no cambian ni las las ni las columnas que constitu-
yen a M

ni tampoco su orden relativo, M

sigue siendo el menor complementario de


M en d

. Sea A un termino de M, B un termino de M

. Como el orden relativo de las


las y columnas de M no ha cambiado, A sigue teniendo el mismo signo como termino
de M en la nueva posicion de M, analogamente para B. Entonces, por la primera
parte de la demostracion, AB es un termino de d

. Pero todos los terminos de d

son
terminos de d si los multiplicamos por (1)
S
M
puesto que (1)
S
M
d

= (1)
2S
M
d = d
luego (1)
S
M
AB es un termino de d.
El lema nos permite reducir el calculo de un determinante de orden n a un determi-
nante de orden n 1.
Notacion: Sea M = [a
ij
[ un menor de 1 1 del determinante d. Su menor comple-
mentario es de orden (n 1) y lo designaremos por M
ij
. Designaremos por A
ij
=
(1)
i+j
M
ij
al adjunto de M.
Teorema 1.22 Sea i una la cualquiera de d. Entonces
d =
n

j=1
a
ij
A
ij
Demostracion: Por el lema, cada termino del desarrollo a
ij
A
ij
es un termino de d
con el signo que le corresponde en d. Sea A un termino del desarrollo a
ir
A
ir
, si j ,= r,
A no puede ser un termino del desarrollo a
ij
A
ij
puesto que A contiene al elemento a
ir
de la i-esima la en tanto que a
ij
A
ij
contiene al elemento a
ij
de la i-esima la, j ,= r.
El desarrollo a
ij
A
ij
contiene (n1)! terminos de d con el signo que les corresponde en
d,
n

j=1
a
ij
A
ij
contiene n(n1)! terminos distintos de d con el signo que les corresponde
en d y puesto que d consta de n! terminos se tiene que
n

j=1
a
ij
A
ij
es d.
22 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Notacion: Diremos que
n

j=1
a
ij
A
ij
es el desarrollo del determinante por los adjuntos
de la i-esima la.
Es obvio que tambien es posible desarrollar el determinante por los adjuntos de una
columna cualquiera.
Ejemplo: Desarrollar
d =

3 1 1 2
5 1 3 4
2 0 1 1
1 5 3 3

por los adjuntos de la tercera la.


d = (1)
3+1
2

1 1 2
1 3 4
5 3 3

+ (1)
3+2
0

3 1 2
5 3 4
1 3 3

+(1)
3+3
1

3 1 2
5 1 4
1 5 3

+ (1)
3+4
(1)

3 1 1
5 1 3
1 5 3

Del ejemplo se concluye que mientras mas ceros tiene la la, mas facil es el desarrollo.
As, usando sistematicamente las propiedades del determinante es posible transfor-
marlo de modo que quede una la que tiene un 1 y (n 1) ceros, as el calculo de un
determinante de orden n se reduce al calculo de un solo determinante de orden n 1.
Ejemplo: Sea
d =

2 5 0 1 3
1 0 3 7 2
3 1 0 5 5
2 6 4 1 2
0 3 1 2 3

Realice las siguientes transformaciones:


Sume a la segunda la tres veces la quinta la.
Reste a la cuarta la cuatro veces la quinta la.
Luego desarrolle por los adjuntos de la tercera columna, se obtiene
d = (1)

2 5 1 3
1 9 13 7
3 1 5 5
2 18 7 10

En este ultimo determinante realice las siguientes transformaciones:


1.4. TEOREMA DE LAPLACE 23
Sume a la primera la dos veces la segunda la.
Reste a la tercera la tres veces la segunda la.
Reste a la cuarta la dos veces la segunda la.
Luego desarrolle por los adjuntos de la primera columna, se obtiene
d =

13 25 17
26 34 26
36 33 24

13 25 17
0 16 8
36 33 24

= 8

13 25 17
0 2 1
36 33 24

= 8
_
13

2 1
33 24

+ 36

25 17
2 1

_
= 813(48 + 33) + 36(25 34) = 8195 324 = 8 129 = 1032
Corolario 1.23 Sea i ,= j, entonces
n

k=1
a
ik
A
jk
= 0.
Demostracion:
n

k=1
a
ij
A
jk
puede interpretarse como el desarrollo por los adjuntos
de la j-esima la de un determinante igual al original salvo que la j-esima la es
b
jk
= a
ik
k = 1, 2, . . . , n. Pero este es un determinante cuya i-esima la y j-esima la
son iguales luego vale cero.
Denicion 1.24 Una matriz
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
se dice triangular superior si a
ij
= 0 siempre que i > j, o bien triangular inferior si
a
ij
= 0 siempre que i < j.
Teorema 1.25 El determinante de una matriz triangular (superior o inferior) es igual
al producto de los elementos en su diagonal.
Demostracion: Claramente el teorema es cierto si n = 1. Sea d el determinante de
la matriz (a
ij
). Supongamos que la matriz es triangular superior y desarrollemos por
los adjuntos de la primera columna, obtenemos
d =
n

i=1
a
i1
A
i1
= a
11
A
11
,
pero A
11
es el determinante de la matriz que resulta de eliminar la primera la y
la primera columna, que es tambien triangular superior. Luego si suponemos cierto el
teorema para matrices de n1 las y n1 columnas tenemos que A
11
= a
22
a
33
a
nn
,
de donde se tiene que el teorema es cierto por induccion.
Si la matriz es triangular inferior, su traspuesta es triangular superior y los elementos
de su diagonal permanecen invariantes.
24 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Teorema 1.26 (Laplace) Sea d un determinante de orden n, sea 1 k n 1.
Elijamos k las (o k columnas) del determinante y consideremos todos los menores
de orden k que se pueden formar con dichas k las (o k columnas). La suma de los
productos de dichos menores por sus respectivos adjuntos es d.
Antes de dar la demostracion veamos un ejemplo. Sea
d =

4 1 2 2 1
0 3 0 1 5
2 3 1 3 1
1 1 3 1 0
0 4 0 2 5

Desarrollamos por los menores de la primera y tercera columnas ( esto es k = 2 y


elegimos las columnas 1 y 3).
d = (1)
1+2+1+3

4 2
0 0

3 3 1
1 1 0
4 2 5

+ (1)
1+3+1+3

4 2
2 1

3 1 5
1 1 0
4 2 5

+(1)
1+4+1+3

4 2
1 3

3 1 5
3 3 1
4 2 5

+ (1)
1+5+1+3

4 2
0 0

3 1 5
3 3 1
1 1 0

+(1)
2+3+1+3

0 0
2 1

1 2 1
1 1 0
4 2 5

+ (1)
2+4+1+3

0 0
1 3

1 2 1
3 3 1
4 2 5

+(1)
2+5+1+3

0 0
0 0

1 2 1
3 3 1
1 1 0

+ (1)
3+4+1+3

2 1
1 3

1 2 1
3 1 5
4 2 5

+(1)
3+5+1+3

2 1
0 0

1 2 1
3 1 5
1 1 0

+ (1)
4+5+1+3

1 3
0 0

1 2 1
3 1 5
3 3 1

Demostracion: Sean i
1
, i
2
, . . . , i
k
las las escogidas, sea A = a
1
1
a
2
2
a
n
n
un
termino cualquiera del determinante d. En A hay exactamente un elemento de cada
una de las las i
1
, i
2
, . . . , i
k
. Supongamos que ellos estan en las columnas
i
1
,
i
2
, . . . ,

i
k
. Consideremos el producto B = a
i
1

i
1
a
i
2

i
2
a
i
k

i
k
. B contiene exactamente un
elemento de cada la y un elemento de cada columna del menor M formado por las las
i
1
, i
2
, . . . , i
k
y las columnas
i
1
,
i
2
, . . . ,
i
k
. El producto de los restantes factores de
A contiene exactamente un elemento de cada la y un elemento de cada columna del
menor complementario M

de M. Se concluye que, al menos en valor absoluto, A es un


termino del desarrollo indicado en el enunciado del teorema. El n umero de terminos
de dicho desarrollo es
_
n
k
_
k!(n k)! = n! y seg un el lema, cada uno es un termino
de d. Pero solo hay uno que contiene los mismos factores que A, si diriese en signo
con A entonces no sera termino de d. Hemos demostrado que todos los terminos de d
aparecen entre los indicados en el enunciado del teorema y que estos son exactamente
n!, esto prueba el teorema propuesto.
1.5. LA REGLA DE CRAMER 25
1.5. La regla de Cramer
Consideremos un sistema de n ecuaciones lineales con n incognitas:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
(1.12)
Sea d el determinante de la matriz del sistema, supondremos que d ,= 0. Si (1.12) es
compatible, sea (
1
,
2
, . . . ,
n
) una solucion. Entonces
a
11

1
+a
12

2
+ +a
1n

n
= b
1
a
21

1
+a
22

2
+ +a
2n

n
= b
2
.
.
.
a
n1

1
+a
n2

2
+ +a
nn

n
= b
n
(1.13)
Sea j arbitrario, 1 j n, multipliquemos la primera igualdad de (1.13) por A
1j
(el
adjunto de a
1j
), la segunda por A
2j
, . . . , la enesima por A
nj
y sumandolas se obtiene
_
n

i=1
a
i1
A
ij
_

1
+
_
n

i=1
a
i2
A
ij
+
_

2
+ +
_
n

i=1
a
in
A
ij
_

n
=
n

i=1
b
i
A
ij
n

i=1
a
ij
A
ij
= d y si r ,= j,
n

i=1
a
ir
A
ij
= 0, luego
d
j
=
n

i=1
b
i
A
ij
Pero
n

i=1
b
i
A
ij
es el desarrollo de un determinante identico a d salvo por su j-esima
columna que es reemplazada por la solumna de los terminos libres b
1
, b
2
, . . . , b
n
. Si
d
j

n

i=1
b
i
A
ij
entonces

j
=
d
j
d
1 j n (1.14)
Se concluye que si d ,= 0 y el sistema es compatible entonces la solucion es unica y
esta dada por (1.14).
A la inversa, supongamos que d ,= 0 y reemplacemos la n-tupla (
d
1
d
,
d
2
d
, . . . ,
d
n
d
) en el
lado izquierdo de (1.12). Veamos que sucede en la i-esima ecuacion:
n

r=1
a
ir
d
r
d
=
1
d
n

r=1
a
ir
n

s=1
b
s
A
sr
=
n

s=1
_
1
d
n

r=1
a
ir
A
sr
_
b
s
Pero
1
d
n

r=1
a
ir
A
sr
=
_
0 si i ,= s
d
d
si i = s
26 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


luego la ecuacion se satisface para 1 i n. Se concluye que
j
=
d
j
d
1 j n es
una solucion del sistema de ecuaciones y por lo tanto si d ,= 0 el sistema es compatible,
tenemos as la regla de Cramer:
Teorema 1.27 Si el determinante d de la matriz de un sistema de ecuaciones lineales
es distinto de cero, el sistema tiene solucion unica dada por (
1
,
2
, . . . ,
n
),
j
=
d
j
d
1 j n donde d
j
es identico al determinante d salvo por la j-esima columna que se
reemplaza por la columna de los terminos libres.
Nota: Todo sistema homogeneo es compatible (admite siempre la solucion trivial
(0, 0, . . . , 0), si d ,= 0 esta es la unica solucion. Se concluye que si un sistema lineal
homogeneo de n ecuaciones con n incognitas tiene soluciones distintas de la trivial
necesariamente su determinante d es igual a cero.
Estamos en condiciones de demostrar que si un determinante d es igual a cero al menos
una de sus las es combinacion lineal de las demas. Para esto consideremos el sistema
homogeneo de n ecuaciones con n incognitas cuya matriz (a
ij
) es aquella cuyas las
son las las del determinante d. Si aplicamos el metodo de Gauss obtenemos un sis-
tema cuyo determinante es igual a cero, puesto que el metodo de eliminacion de Gauss
consiste esencialmente en restar a una ecuacion ciertas combinaciones lineales de las
ecuaciones que la preceden y mediante estas operaciones el valor del determinante del
sistema no cambia. Esto signica que dicho sistema solo puede ser reducido a un sis-
tema trapezoidal, esto es, alguna de las ecuaciones debe haber sido eliminada, pues
de lo contrario habra sido obtenido un sistema triangular, cuya matriz tendra un
determinante distinto de cero pues sera el producto de los elementos en la diagonal,
que seran todos distintos de cero. Pero para que eso suceda, al menos una de las
ecuaciones debe ser combinacion lineal de las demas precisamente porque el metodo
de eliminacion consiste en restar a una ecuacion ciertas combinaciones lineales de las
ecuaciones que la preceden.
La armacion tambien es verdadera para las columnas de d puesto que el sistema cuya
matriz es la traspuesta de (a
ij
) tambien tiene determinante igual a cero.
Puesto que un sistema homogeneo que se puede llevar mediante el metodo de Gauss
a un sistema trapezoidal admite soluciones no triviales, se concluye tambien que si el
determinante de un sistema homogeneo es igual a cero dicho sistema tiene soluciones
distintas de la trivial.
Ejemplo: Resolver el sistema
_
_
_
_
2 1 5 1 8
1 3 0 6 9
0 2 1 2 5
1 4 7 6 0
_
_
_
_
d =

2 1 5 1
1 3 0 6
0 2 1 2
1 4 7 6

= 27
1.5. LA REGLA DE CRAMER 27
d
1
=

8 1 5 1
9 3 0 6
5 2 1 2
0 4 7 6

= 81 d
2
=

2 8 5 1
1 9 0 6
0 5 1 2
1 0 7 6

= 108
d
3
=

2 1 8 1
1 3 9 6
0 2 5 2
1 4 0 6

= 27 d
4
=

2 1 5 8
1 3 0 9
0 2 1 5
1 4 7 0

= 27

1
= 3
2
= 4
3
= 1
4
= 1
Ejemplo: Dado el sistema
_
_
_
_
_
1 2 0
1 0 1 0
0 1 0
_
_
_
_
_
encuentre los valores de para los cuales el sistema admite una solucion no trivial.
Necesariamente

1 2
1 0 1
0 1

= 0
Entonces

0 1
1

1 2
1

= 0 , ( + 2) = 0
luego para cualquier valor de el sistema admite solo la solucion trivial.
28 CAP

ITULO 1. SISTEMAS DE ECUACIONES LINEALES


Captulo 2
Relaciones de dependencia
lineal
2.1. El espacio vectorial R
n
Para construir la teora general de los sistemas de ecuaciones lineales introduciremos
un objeto algebraico auxiliar. Sea n un natural arbitrario, llamaremos espacio vec-
torial n-dimensional y lo designaremos por R
n
a la siguiente estructura algebraica:
sus elementos seran todas las n-tuplas = (a
1
, a
2
, . . . , a
n
) de n umeros reales. Diremos
que dichas n-tuplas son vectores de R
n
, nos referiremos a ellas como vectores a secas.
Por ejemplo, R
2
es el conjunto de los pares ordenados de n umeros reales, R
3
es el con-
junto de los tros ordenados de n umeros reales. Los n umeros a
1
, a
2
, . . . , a
n
se llaman
las componentes de la n-tupla.
Diremos que = (a
1
, a
2
, . . . , a
n
), = (b
1
, b
2
, . . . , b
n
) son iguales si y solo si a
i
= b
i
i = 1, 2, . . . , n.
En R
n
denimos las siguientes operaciones:
Sean = (a
1
, a
2
, . . . , a
n
), = (b
1
, b
2
, . . . , b
n
), llamaremos suma de los vectores y
al vector
+ = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
De la denicion de suma y de la conmutatividad y asociatividad de la suma de n umeros
vemos que la suma de vectores es conmutativa y asociativa:
+ = +, , R
n
+ ( +) = ( +) +, , , R
n
Llamaremos vector nulo a 0 = (0, 0, . . . , 0), es claro que es el unico vector de R
n
que
tiene la siguiente propiedad:
+ 0 = R
n
Llamaremos inverso aditivo del vector = (a
1
, a
2
, . . . , a
n
) a
= (a
1
, a
2
, . . . , a
n
)
29
30 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


y es el unico vector tal que + () = 0. Al vector
+ () = (a
1
b
1
, a
2
b
2
, . . . , a
n
b
n
)
lo llamaremos la diferencia de los vectores y , se anota simplemente como .
Sea R
n
, k un n umero real, llamaremos producto del vector por el n umero real k
al vector
k k = (ka
1
, ka
2
, . . . , ka
n
)
Es evidente que la operacion tiene las siguientes propiedades:
i.- 1 = R
n
ii.- k( +) = k +k , R
n
, k R
iii.- (k
1
+k
2
) = k
1
+k
2
R
n
,k
1
, k
2
R
iv.- k
1
(k
2
) = (k
1
k
2
) R
n
,k
1
, k
2
R
El lector puede vericar que 0 = 0, (1) = para todo R
n
, y si k = 0
entonces k = 0 o = 0.
2.2. Dependencia lineal
Denicion 2.1 Sean
1
,
2
, . . . ,
s
R
n
. Diremos que el vector es combinacion
lineal de los vectores
1
,
2
, . . . ,
s
si existen n umeros reales l
1
, l
2
, . . . , l
s
tales que
=
s

i=1
l
i

i
Denicion 2.2 Diremos que los vectores
1
,
2
, . . . ,
s
son linealmente dependientes
si hay n umeros reales k
1
, k
2
, . . . , k
s
no todos nulos tales que
s

i=1
k
i

i
= 0
En caso contrario diremos que los vectores
1
,
2
, . . . ,
s
son linealmente indepen-
dientes.
El conjunto de vectores es linealmente independiente si y solo si la unica combinacion
lineal de ellos que es igual a cero es la trivial, esto es,
0
1
+ 0
2
+ + 0
n
(aquella en que todos los k
i
son cero).
Vemos que todo conjunto de vectores que contiene al vector cero es linealmente de-
pendiente, si
i
= 0 tomemos k
j
= 0 si j ,= i, k
i
,= 0 y se tiene
0
1
+ 0
2
+ +k
i

i
+ + 0
n
= 0
2.3. DIMENSI

ON DEL ESPACIO VECTORIAL R


N
31
Teorema 2.3 El conjunto de vectores
1
,
2
, . . . ,
s
, s 2 es linealmente dependi-
ente si y solo si al menos uno de ellos es combinacion lineal de los otros.
Demostracion: Supongamos que hay k
1
, k
2
, . . . , k
s
no todos nulos tales que
s

i=1
k
i

i
=
0. Sin perdida de generalidad podemos suponer que k
1
,= 0. Entonces

1
=
s

i=2
k
i
k
1

i
.
A la inversa, supongamos que hay l
2
, l
3
, . . . , l
s
tales que
1
=
s

i=2
l
2

2
. Entonces

1

s

i=2
l
2

2
= 0 ,
tome k
1
= 1, k
i
= l
i
, i = 2, 3, . . . , s.
Ejemplo: En R
3
sean

1
= (5, 2, 1)
2
= (1, 3, 3)
3
= (9, 7, 5)
4
= (3, 8, 7)
Es facil ver que 4
1

2
3
3
+2
4
= 0, el sistema de cuatro vectores es linealmente
dependiente. . Tambien 2
1
+
2

3
= 0 luego
1
,
2
,
3
tambien son linealmente
dependientes como tambien lo son
2
,
3
,
4
.
Nota: Supongamos que de los s vectores
1
,
2
, . . . ,
s
hay r de ellos linealmente
dependientes, r < s, entonces el conjunto
1
,
2
, . . . ,
s
es linealmente dependiente. En
efecto, sin perdida de generalidad podemos suponer que
1
,
2
, . . . ,
r
son linealmente
dependientes y por lo tanto hay k
1
, k
2
, . . . , k
r
no todos nulos tales que
k
1

1
+ +k
r

r
= 0 .
Elija k
r+1
= k
r+2
= = k
s
= 0.
Es obvio que si un conjunto de vectores es linealmente independiente, todo subconjunto
de el es linealmente independiente.
Notacion: Cuando un sistema de vectores es linealmente dependiente diremos que es
l.d., si es linealmente independiente diremos que es l.i.
2.3. Dimension del espacio vectorial R
n
Es claro que en R
n
hay sistemas de n vectores que son l.i., considere el sistema
e
1
= (1, 0, 0, . . . , 0)
e
2
= (0, 1, 0, . . . , 0)
.
.
.
e
n
= (0, 0, 0, . . . , 1)
32 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


n

i=1
k
i
e
i
= 0 (k
1
, k
2
, . . . , k
n
) = 0 = (0, 0, . . . , 0)
luego k
i
= 0, i = 1, 2, . . . , n.
Teorema 2.4 Sean
1
,
2
, . . . ,
s
R
n
, s > n. Entonces el conjunto es l.d.
Demostracion: Sean
i
= (a
i1
, a
i2
, . . . , a
in
), i = 1, 2, . . . , s y supongamos que
s

i=1
k
i

i
= 0. Entonces
s

i=1
(k
i
a
i1
, k
i
a
i2
, . . . , k
i
a
in
) = (k
1
a
11
, k
1
a
12
, . . . , k
1
a
1n
) +
(k
2
a
21
, k
2
a
22
, . . . , k
2
a
2n
) +
.
.
.
(k
s
a
s1
, k
2
a
s2
, . . . , k
s
a
sn
)
=
_
s

i=1
k
i
a
i1
,
s

i=1
k
i
a
i2
, . . . ,
s

i=1
k
i
a
in
_
= 0
Obtenemos as un sistema lineal homogeneo
s

i=1
a
ij
k
i
= 0 j = 1, 2, . . . , n (2.1)
para las variables k
1
, k
2
, . . . , k
s
.
Sabemos que (2.1) es compatible, como el n umero de incognitas es mayor que el n umero
de ecuaciones (s > n), al aplicar el metodo de Gauss el sistema queda reducido a la
forma trapezoidal y por lo tanto tiene soluciones no triviales.
Del teorema se concluye que un sistema l.i. de vectores en R
n
consta a lo mas de n
vectores (ya vimos que hay sistemas l.i. que constan exactamente de n vectores).
Denicion 2.5 Sean
1
,
2
, . . . ,
r
un sistema de vectores l.i. en R
n
. Diremos que
el sistema es linealmente independiente maximal si al agregar a el cualquier R
n
,
el nuevo sistema
1
,
2
, . . . ,
r
, es l.d.
De lo dicho anteriormente se concluye que todo sistema l.i. en R
n
que consta de n
vectores es linealmente independiente maximal.
Sea
1
,
2
, . . . ,
n
l.i. en R
n
, sea R
n
arbitrario. Puesto que
1
,
2
, . . . ,
n
es
maximal, hay constantes k
1
, k
2
, . . . , k
n+1
, no todas nulas, tales que
n

i=1
k
i

i
+k
n+1
= 0
Si k
n+1
= 0 entonces al menos uno entre k
1
, k
2
, . . . , k
n
es distinto de cero lo cual es
contradiccion. Se concluye que k
n+1
,= 0 y es combinacion lineal de los vectores
1
,

2
, . . . ,
n
. Se concluye que
2.3. DIMENSI

ON DEL ESPACIO VECTORIAL R


N
33
Si
1
,
2
, . . . ,
n
es l.i. todo vector de R
n
puede expresarse como combinacion
lineal de ellos. Decimos que el sistema de vectores
1
,
2
, . . . ,
n
genera a R
n
.
Por ejemplo, el sistema de vectores
e
1
= (1, 0, 0, . . . , 0)
e
2
= (0, 1, 0, . . . , 0)
.
.
.
e
n
= (0, 0, 0, . . . , 1)
genera a R
n
.
Si = (a
1
, a
2
, . . . , a
n
) entonces =
n

i=1
a
i
e
i
.
Sea
1
,
2
, . . . ,
r
l.i., y supongamos que no es maximal. Entonces hay
r+1
R
n
tal
que
1
,
2
, . . . ,
r
,
r+1
es l.i. Si no es maximal, hay
r+2
R
n
tal que
1
,
2
, . . . ,

r
,
r+1
,
r+2
es l.i. Sabemos que el proceso debe terminar porque a lo mas pueden
completarse n vectores l.i. Entonces todo sistema l.i. esta contenido en un sistema
maximal, en particular un vector distinto de cero esta contenido en un sistema lin-
ealmente independiente maximal. Se concluye que hay innitos sistemas linealmente
independientes maximales en R
n
.
Hay sistemas linealmente independientes maximales que constan de menos de n vec-
tores ? La respuesta es negativa, todos constan exactamente de n vectores. Nos abo-
caremos a responder la pregunta recien formulada.
Denicion 2.6 Diremos que el vector se expresa linealmente mediante el sistema
de vectores
1
,
2
, . . . ,
r
si es combinaci on lineal de ellos.
Es claro que si se expresa linealmente mediante un subsistema
1
,
2
, . . . ,
r
tam-
bien se expresa linealmente mediante
1
,
2
, . . . ,
r
.
Denicion 2.7 Diremos que el sistema de vectores
1
,
2
, . . . ,
s
se expresa lineal-
mente mediante el sistema de vectores
1
,
2
, . . . ,
r
si cada uno de los vectores
1
,

2
, . . . ,
s
es combinacion lineal de ellos.
Teorema 2.8 Supongamos que el sistema de vectores
1
,
2
, . . . ,
s
se expresa lin-
ealmente mediante el sistema de vectores
1
,
2
, . . . ,
r
y que el sistema de vectores

1
,
2
, . . . ,
t
se expresa linealmente mediante el sistema de vectores
1
,
2
, . . . ,
s
.
Entonces el sistema
1
,
2
, . . . ,
t
se expresa linealmente mediante el sistema
1
,
2
,
. . . ,
r
.
Demostracion: Sea

j
=
s

i=1
l
ji

i
j = 1, 2, . . . , t

i
=
r

k=1

ik

k
i = 1, 2, . . . , s entonces

j
=
s

i=1
l
ji
r

k=1

ik

k
=
r

k=1
_
s

i=1
l
ji

ik
_

k
j = 1, 2, . . . , t
34 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Denicion 2.9 Dos sistemas de vectores se dicen equivalentes si cada uno se expresa
linealmente mediante el otro.
Del teorema y la denicion se tiene que si dos sistemas son equivalentes y un vector
se expresa linealmente mediante uno de ellos entonces tambien se expresa linealmente
mediante el otro.
Teorema 2.10 Sea
1
,
2
, . . . ,
r
un sistema de vectores l.i. en R
n
y supongamos
que se expresa linealmente mediante el sistema de vectores
1
,
2
, . . . ,
s
. Entonces
r s.
Demostracion: Supongamos que r > s. Por hipotesis

i
=
s

j=1
a
ij

j
i = 1, 2, . . . , r
En R
s
denimos los vectores

1
= (a
11
, a
12
, . . . , a
1s
)

2
= (a
21
, a
22
, . . . , a
2s
)
.
.
.

r
= (a
r1
, a
r2
, . . . , a
rs
)
Como r > s el conjunto de vectores
1
,
2
, . . . ,
r
es l.d. y por lo tanto hay k
1
, k
2
,
. . . , k
r
no todos nulos tales que
r

l=1
k
l

l
= 0
Igualando las componentes a cero tenemos que
r

i=1
k
i
a
ij
= 0 j = 1, 2, . . . , s
Pero
r

i=1
k
i

i
=
r

i=1
k
i
s

j=1
a
ij

j
=
s

j=1
_
r

i=1
k
i
a
ij
_

j
= 0
lo cual es contradiccion luego r s.
Corolario 2.11 Sean
1
,
2
, . . . ,
r
y
1
,
2
, . . . ,
s
sistemas equivalentes en R
n
ambos l.i. Entonces r = s.
Por denicion se tiene que si
1
,
2
, . . . ,
r
y
1
,
2
, . . . ,
s
son sistemas linealmente
independientes maximales en R
n
entonces ellos son equivalentes y por el corolario se
tiene que r = s. Como hay sistemas maximales de n vectores se tiene que r = s = n.
Todos los sistemas l.i. maximales en R
n
constan de n vectores y hay innitos de ellos.
Diremos que un sistema l.i. maximal en R
n
es una base de R
n
y el que todas las bases
de R
n
constan del mismo n umero n de vectores se expresa diciendo que R
n
tiene di-
mension n.
2.4. RANGO DE UN SISTEMA DE VECTORES 35
2.4. Rango de un sistema de vectores
Sea
1
,
2
, . . . ,
n
una base de R
n
, sea = (a
1
, a
2
, . . . , a
n
). Entonces hay c
1
, c
2
, . . . ,
c
n
tales que =
n

i=1
c
i

i
. Los n umeros c
i
se llaman las componentes del vector con
respecto a la base
1
,
2
, . . . ,
n
. Si

1
= (b
11
, . . . , b
1n
)

2
= (b
21
, . . . , b
2n
)
.
.
.

n
= (b
n1
, . . . , b
nn
)
entonces
n

k=1
c
k

k
=
n

k=1
c
k
(b
k1
, b
k2
, . . . , b
kn
) = (a
1
, a
2
, . . . , a
n
)
es equivalente a
n

k=1
c
k
b
kj
= a
j
j = 1, 2, . . . , n (2.2)
luego para encontrar las componentes del vector con respecto a la base
1
,
2
, . . . ,

n
debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distinto
de componentes en cada base pero tal juego es unico. En efecto, si
=
n

i=1
c
i

i
=
n

i=1
c

i

n

i=1
(c
i
c

i
)
i
= 0
entonces c
i
= c

i
porque los
1
,
2
, . . . ,
n
son l.i.
Notese que si queremos encontrar las componentes del vector 0 en la base
1
,
2
, . . . ,

n
tenemos que resolver el sistema
n

k=1
c
k
b
kj
= 0 j = 1, 2, . . . , n (2.3)
Puesto que se espera que (2.3) solo tenga la solucion trivial necesariamente debe tenerse
que det(b
ij
) ,= 0. A la inversa, si det(b
ij
) ,= 0 entonces (2.3) solo tiene la solucion trivial
y
n

k=1
c
k

k
= 0
implica c
k
= 0, k = 1, 2, . . . , n. Esto demuestra que
Teorema 2.12 El conjunto de vectores
1
,
2
, . . . ,
n
es l.i. si y solo si det(b
ij
) ,= 0.
La base e
1
, e
2
, . . . , e
n
se llama la base estandar de R
n
, en ella
=
n

k=1
a
k
e
k
36 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


esto es, las componentes del vector con respecto a la base estandar coinciden con
las componentes de la n-tupla (a
1
, a
2
, . . . , a
n
). Esta es la unica base para la cual esto
sucede. Si hubiese una base para la cual c
k
= a
k
, k = 1, 2, . . . , n para todos los vectores
de R
n
, esto debera ser cierto en particular para e
1
, e
2
, . . . , e
n
.
Denamos el siguiente smbolo llamado delta de Kronecker

ij
=
_
1 si i = j
0 si i ,= j
Entonces
n

k=1
c
k

k
=
n

k=1
c
k
(b
k1
, b
k2
, . . . , b
kn
) = e
i
= (
i1
,
i2
, . . . ,
in
)
Pero queremos que c
k
=
ik
para k = 1, 2, . . . , n luego
n

k=1

ik
(b
k1
, b
k2
, . . . , b
kn
) = (
i1
,
i2
, . . . ,
in
) .
En el miembro izquierdo
ik
= 0 si k ,= i,
ii
= 1 luego
(b
i1
, b
i2
, . . . , b
in
) = (
i1
,
i2
, . . . ,
in
)
luego
i
= e
i
, i = 1, 2, . . . , n.
Denicion 2.13 Sea
1
,
2
, . . . ,
r
un sistema de vectores en R
n
. Diremos que
el subsistema
i
1
,
i
2
, . . . ,
i
s
, s < r (a
i
j

1
,
2
, . . . ,
r
, j = 1, 2, . . . , s) es
linealmente independiente maximal con respecto al sistema
1
,
2
, . . . ,
r
si el sistema

i
1
,
i
2
, . . . ,
i
s
, con ,=
i
j
j = 1, 2, . . . , s,
1
,
2
, . . . ,
n
es l.d.
Nota: Si
1
,
2
, . . . ,
r
es l.i. tambien lo consideramos como un subsistema lineal-
mente independiente maximal.
Dos subsistemas como los recien denidos tienen el mismo n umero de vectores. En
efecto, sea
1
,
2
, . . . ,
r
un sistema l.d. Podemos suponer sin perdida de generali-
dad que
1
,
2
, . . . ,
s
es subsistema linealmente independiente maximal. Queremos
demostrar que

1
,
2
, . . . ,
r
(2.4)
y

1
,
2
, . . . ,
s
(2.5)
son equivalentes. Vemos que
s+1
,
s+2
, . . . ,
r
se expresan linealmente mediante
(2.5) porque (2.5) es maximal y
i
con 1 i s es

i
= 0
1
+ 0
2
+ + 1
i
+ + 0
s
as que tambien se expresa linealmente mediante (2.5) y por lo misma razon (2.5) se
expresa linealmente mediante (2.4). Entonces (2.4) es equivalente a cualquiera de sus
subsistemas linealmente independientes y por transitividad ellos son equivalentes entre
s. Por teorema previo ellos tienen el mismo n umero de vectores.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 37
Denicion 2.14 Sea
1
,
2
, . . . ,
r
un sistema de vectores en R
n
. Al n umero de
vectores de un subsistema linealmente independiente maximal cualquiera se le llama
rango del sistema
1
,
2
, . . . ,
r
.
Teorema 2.15 Sean

1
,
2
, . . . ,
r
(2.6)
y

1
,
2
, . . . ,
s
(2.7)
dos sistemas de vectores en R
n
. Sea k el rango el primer sistema y l el rango del segun-
do. Si (2.6) es expresa linealmente mediante (2.7) entonces k l y si son equivalentes,
k = l.
Demostracion: Sea

i
1
,
i
2
, . . . ,
i
k
(2.8)
linealmente independiente maximal en (2.6) y sea

j
1
,
j
2
, . . . ,
j
l
(2.9)
linealmente independiente maximal en (2.7).
Tenemos que (2.8) y (2.6) son equivalentes y tambien (2.9) y (2.7). Como (2.6) se
expresa linealmente mediante (2.7) entonces (2.8) se expresa linealmente mediante
(2.7) y por consiguiente se expresa linealmente mediante (2.9). Pero el rango de (2.8)
es igual al rango de (2.6) y el rango de (2.7) es igual al rango de (2.9). Por teorema
previo, como (2.8) es l.i. entonces el rango de (2.8) es menor o igual al rango de (2.9),
esto es, k l. Si (2.6) y (2.7) son equivalentes entonces l k luego k = l.
2.5. Rango de matrices y dependencia lineal
El problema de discernir la dependencia o independencia lineal de un sistema de vec-
tores en R
n
, sean ellos

i
= (a
i1
, a
i2
, . . . , a
in
) i = 1, 2, . . . , r
se reduce a resolver la ecuacion vectorial
r

i=1
k
i
(a
i1
, a
i2
, . . . , a
in
) = (0, 0, . . . , 0)
la cual escrita en componentes se reduce al siguiente sistema lineal homogeneo:
r

i=1
k
i
a
ij
= 0 j = 1, 2, . . . , n (2.10)
Entonces el sistema
1
,
2
, . . . ,
r
es l.d. si y solo si (2.10) tiene soluciones no triviales.
Ejemplo: En R
4
sean

1
= (0, 1, 1, 1)

2
= (2, 1, 1, 0)

3
= (1, 1, 1, 1)
38 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Entonces
k
1
(0, 1, 1, 1) +k
2
(2, 1, 1, 0) +k
3
(1, 1, 1, 1) = (0, 0, 0, 0)
es equivalente al sistema
2k
2
+ k
3
= 0
k
1
+ k
2
+ k
3
= 0
k
1
+ k
2
+ k
3
= 0
k
1
+ k
3
= 0
De la segunda y tercera ecuacion se tiene 2k
1
= 0, de la cuarta k
3
= 0 y de la primera
k
2
= 0 luego el sistema tiene solo la solucion trivial.
1
,
2
,
3
son l.i.
Abordaremos el mismo problema por otro metodo. Sea A = (a
ij
) una matriz de s las
y n columnas (matriz de s n). Consideremos los vectores

i
= (a
1i
, a
2i
, . . . , a
si
) i = 1, 2, . . . , n
Este sistema de vectores son las columnas de A miradas como vectores en R
s
. Lla-
maremos rango de la matriz A al rango del sistema
1
,
2
, . . . ,
n
.
Es natural pensar que podramos haber usado las las de A para dar la misma deni-
cion, que en justicia deberamos hablar del rango la de A y rango columna de A.
Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si se
eligen columnas o las de A para dar la denicion de rango de A.
Sea k natural, sea k mn(s, n). Nos interesamos por los valores de k par los cuales
hay menores de orden k de la matriz A que son distintos de cero, en particular, por
el mayor de estos k. Diremos que k mn(s, n) es el mayor orden de menor no nulo
de la matriz A si hay un menor de orden k de A que es distinto de cero y todos los
menores de orden r, k < r mn(s, n) son iguales a cero. Por ejemplo, si
A =
_
_
_
_
1 2 1 0
0 1 1 2
0 3 2 1
0 2 2 4
_
_
_
_
,
es claro que det A = 0 luego k < 4.
Consideremos el menor

1 2 1
0 1 1
0 3 2

1 1
3 2

= 2 3 = 5
luego k = 3.
Notese que si todos los menores de orden k de A son cero, todos los menores de orden
superior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j
mn(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.
Teorema 2.16 El mayor orden r de menor no nulo de la matriz A es igual al rango
de A.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 39
Demostracion: Sabemos que hay menor de orden r que es distinto de cero y que
todos los menores de orden superior valen cero. Supondremos (para simplicar la
notacion) que el menor formado por las r primeras las y las r primeras columnas
de A es distinto de cero. Llamaremos D a este menor. Consideremos las r primeras
columnas de A como vectores de R
s
. Sea

i
= (a
1i
, a
2i
, . . . , a
si
) , i = 1, 2, . . . , r
y supongamos que
r

j=1
k
i

i
= 0, esto es,
r

i=1
k
i
(a
1i
, a
2i
, . . . , a
si
) = (0, 0, . . . , 0) .
En componentes se tiene
r

j=1
k
i
a
ji
= 0 j = 1, 2, . . . , n (2.11)
Supongamos que el sistema (2.11) tiene solucion no trivial. Entonces el sistema
r

i=1
k
i
a
ji
= 0 j = 1, 2, . . . , r
tiene solucion no trivial y por lo tanto su determinante es distinto de cero. Pero su
determinante es D luego hemos demostrado que las r primeras columnas de A son l.i.
En general, hemos demostrado que si M
r
es un menor de orden r de la matriz, las r
columnas de la matriz que pasan por el menor A son l.i.
Sea
i
el siguiente menor de orden r + 1 de la matriz A

i
=

a
11
a
12
a
1r
a
1l
a
21
a
22
a
2r
a
2l
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
r1
a
r2
a
rr
a
rl
a
i1
a
i2
a
ir
a
il

i
se llama un menor orlado de D y se obtiene pegando a D los r primeros
elementos de la elesima columna, r < l n, los r primeros elementos de una la i
cualquiera, 1 i s y el elemento a
il
.
Si se tiene que 1 i r,
i
tiene dos las iguales y por lo tanto vale cero y si
r < i s,
i
es un menor de orden r + 1 de la matriz A y por hipotesis vale cero.
Luego
i
= 0 para todo i. Desarrollando
i
por los adjuntos de la ultima la se tiene
r

j=1
a
ij
A
ij
+a
il
A
il
= 0
pero A
ij
no incluye a la ultima la de
i
luego es independiente de i en magnitud y
su signo en
i
esta dado por (1)
(r+1)+j
y tampoco depende de i. Para enfatizar esto
anotaremos A
j
= A
ij
, en particular A
il
= D, luego
a
i1
A
1
+a
i2
A
2
+ +a
ir
A
r
+a
il
D = 0
40 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


y como D ,= 0 entonces
a
il
=
r

j=1
k
j
a
ij
, k
j
=
A
j
D
, j = 1, 2, . . . , r (2.12)
Pero (2.12) es verdadero para cualquier i, 1 i s y k
1
, k
2
, . . . , k
r
son independientes
de i. Luego (2.12) dice que la i-esima columna de la matriz A es combinacion lineal de
las r primeras columnas de A. Se concluye que las r primeras columnas de A forman
un sistema linealmente independiente maximal del sistema de columnas de A miradas
como vectores de R
s
. Por denicion, se tiene que el rango de A es igual a r.
Nota: Debemos hacer notar que en la demostracion anterior no usamos que todos los
menores de orden r +1 son cero, sino que los menores orlados de orden r +1 de D son
cero, esta observacion simplica el calculo del rango de A.
Para calcular el rango de una matriz A de s n tenemos que desarrollar el siguiente
proceso:
i.- Si la matriz tiene alg un elemento a
ij
,= 0, su rango es por lo menos 1. Si todos
los menores orlados de orden 2 del menor [a
ij
[ son cero entonces su rango es 1.
ii.- Si alg un menor orlado de orden 2 de [a
ij
[ es distinto de cero, sea D
2
este menor,
calculamos todos los menores orlados de orden 3 de D
2
, si todos valen cero, el
rango de la matriz es 2.
iii.- Si alg un menor orlado de orden 3 de D
2
es distinto de cero, sea D
3
dicho menor,
procedemos a los menores orlados de orden 4 de D
3
, . . .
iv.- El proceso termina cuando encontramos un menor D
k
de orden k distinto de cero
y tal que todos sus menores orlados de orden k + 1 valen cero.
Ejemplo:
A =
_
_
_
_
2 4 3 1 0
1 2 1 4 2
0 1 1 3 1
4 7 4 4 5
_
_
_
_
s = 4, n = 5, luego el rango de A puede ser a lo mas 4.
a
11
= 2 ,= 0, sea D
2
=

2 4
1 2

. D
2
= 0, pero esto no signica que A tenga rango 1,
podemos tomar por ejemplo D
2
=

2 3
1 1

= 1 ,= 0. Sea
D
3
=

2 3 1
1 1 4
0 1 3

= 12 ,= 0
Calculemos los orlados de D
3
. Ellos son
O
1
=

2 3 1 4
1 1 4 2
0 1 3 1
4 4 4 7

O
2
=

2 3 1 0
1 1 4 2
0 1 3 1
4 4 4 5

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 41


Pero O
1
= O
2
= 0 luego el rango de la matriz es 3 y las tres primeras columnas forman
un sistema linealmente independiente maximal del sistema de columnas de A.
Nota: Si en la demostracion del teorema anterior el menor D no consistiera en las
primeras r las y las primeras r columnas sino que de r las y r columnas cualesquiera,
el menor orlado
1
podra no ser un menor del determinante puesto que la columna
i-esima que se coloca al nal podra no ser la ultima de las columnas, es decir, las
columnas podran quedar en un orden distinto al orden que tienen en la matriz A
(como el menor orlado O
1
en el ejemplo anterior). Lo mismo puede suceder con la la
i-esima. Sin embargo, el orden de las columnas en el determinante no puede alterar su
magnitud sino que unicamente su signo, de modo que si todos los menores de orden
r + 1 son cero, el menor orlado
i
debe ser cero tambien.
Ejemplo: Sean
1
= (2, 2, 4),
2
= (1, 9, 3),
3
= (2, 4, 1),
4
= (3, 7, 1).
Buscamos un subsistema linealmente independiente maximal del sistema
1
,
2
,
3
,

4
. Para ello, formemos una matriz de 3 4 cuyas columnas son estos vectores
A =
_
_
2 1 2 3
2 9 4 7
4 3 1 1
_
_
y calculamos su rango. Claramente

2 1
2 9

,= 0. Sus orlados son


O
1
=

2 1 2
2 9 4
4 3 1

0 10 6
2 9 4
0 15 9

= 2

10 6
15 9

= 0
O
2
=

2 1 3
2 9 7
4 3 1

0 10 10
2 9 7
0 15 15

= 2

10 10
15 15

= 0
luego el rango de A es 2 y
1
,
2
forman un subsistema linealmente independiente
maximal.
Teorema 2.17 Sea A una matriz de sn. El maximo n umero de las l.i. de A miradas
como vectores en R
n
es igual al maximo n umero de columnas l.i. de A miradas como
vectores en R
s
.
Demostracion: Consideremos A
t
(la matriz traspuesta de A). Puesto que el valor de
un determinante no cambia cuando se traspone se tiene que rango A = rango A
t
. Pero
rango la de A = rango columna de A
t
= rango A
t
= rango A = rango columna de A
Ejemplo: Consideremos el sistema homogeneo
_
_
_
_
1 2 1 3 0
4 1 5 6 0
1 3 4 7 0
2 1 1 0 0
_
_
_
_
42 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Queremos saber si tiene soluciones distintas de la trivial. Sea A la matriz del sistema,
D
2
=

1 2
4 1

,= 0. Sea
O
1
=

1 2 1
4 1 5
1 3 4

1 2 1
0 9 1
0 5 5

,= 0
Consideremos el unico orlado de O
1
:

1 2 1 3
4 1 5 6
1 3 4 7
2 1 1 0

1 2 1 3
0 9 1 18
0 5 5 10
0 5 3 6

9 1 18
5 5 10
0 2 4

= 10

9 1 18
1 1 2
0 1 2

= 10

9 1 18
1 0 0
0 1 2

= 10

1 18
1 2

= 200 ,= 0
Luego el rango la de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, al
aplicar el metodo de Gauss, ninguna puede desaparecer y el sistema queda en la forma
triangular y por lo tanto tiene solo la solucion trivial.
Nota: Podramos haber calculado directamente el determinante del sistema y haber
vericado que era distinto de 0 y por teorema previo, cuya demostracion depende de
la regla de Cramer, haber dicho de inmediato que tena solo la solucion trivial. Hemos
demostrado que se puede concluir lo mismo sin conocer la regla de Cramer.
2.6. Equivalencia de matrices
Si A es una matriz de nn tal que su determinante d es igual a cero, el rango maximo
de A puede ser (n 1) luego las n las de la matriz son l.d. Luego si un determinante
d vale cero, entre sus las (columnas) existe una relacion de dependencia lineal. Esto
ya lo sabamos, pero el metodo del rango nos permite decir cuantas y cuales las son l.i.
Existe otro metodo mas simple para calcular el rango de una matriz.
Denicion 2.18 Se llaman transformaciones elementales de una matriz A a las sigu-
ientes:
a) La trasposicion de dos las (o columnas)
b) La multiplicacion de una la (o una columna) por un n umero distinto de cero.
c) La suma a una la (o a una columna) de otra la (o columna) multiplicada por un
n umero.
Teorema 2.19 Las transformaciones elementales de una matriz no alteran su rango.
Demostracion:
2.6. EQUIVALENCIA DE MATRICES 43
a) El orden en el cual se consideren las las no altera su dependencia lineal.
b) Sea
1
,
2
, . . . ,
r
un sistema linealmente independiente maximal de las. Sean
c
1
, c
2
, . . . , c
r
r n umeros arbitrarios distintos de cero. Supongamos que los vectores

i
= c
i

i
i = 1, 2, . . . , r son l.d. Entonces hay constantes k
i
i = 1, 2, . . . , r no todas
nulas tales que
r

i=1
k
i

i
= 0, esto es,
r

i=1
(k
i
c
i
)
i
= 0
lo cual es una contradiccion.
Sea una la cualquiera, entonces
=
r

i=1
l
i

i
=
r

i=1
l
i
c
i

i
luego el sistema
1
,
2
, . . . ,
r
es maximal.
c) Sean
1
,
2
, . . . ,
s
las las de la matriz, sean

1
,
2
, . . . ,
i
+k
j
,
i+1
, . . . ,
j
, . . . ,
s
las las de la nueva matriz. Es claro que las las de la matriz anterior y de la nueva
matriz son sistemas equivalentes de vectores y por lo tanto tienen el mismo rango.
Denicion 2.20 Diremos que dos matrices A y B son equivalentes si B proviene de
A a traves de una sucesion de transformaciones elementales.
Es evidente que una transformacion elemental es invertible, luego si B proviene de A
a traves de una sucesion de transformaciones elementales, entonces A proviene de B
a traves de una sucesion de transformaciones elementales. Es claro que dos matrices
equivalentes tienen el mismo rango.
Denicion 2.21 Sea A matriz de s n. Diremos que A tiene la forma diagonal si
a
11
= a
22
= = a
rr
= 1 (para alg un r tal que 0 r mn(s, n)) y todos los demas
elementos son cero.
Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidad
vale 1) y todos sus menores de orden r + 1 son cero, su rango es r.
Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante una
sucesion de transformaciones elementales.
44 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Demostracion: Si a
ij
= 0 i, j ella tiene la forma diagonal. Si no es as, sin perdida
de generalidad podemos suponer que a
11
= 1; en forma analoga al metodo de Gauss
aplicado a la primera columna llevamos la matriz A a la forma
A

=
_
_
_
_
_
1 a
12
a
13
a
1n
0 a

22
a

23
a

2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a

s2
a

s3
a

sn
_
_
_
_
_
,
luego, aplicando el metodo a la primera la, esto es, restando a cada columna una
columna proporcional a la primera de modo que aparezcan ceros en la primera la,
llevamos A

a la forma
A

=
_
_
_
_
_
1 0 0 0
0 a

22
a

23
a

2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a

s2
a

s3
a

sn
_
_
_
_
_
Si todos los a

ij
son cero, A

tiene la forma diagonal. Si alg un a

ij
es distinto de cero
aplicamos el metodo a la columna 2 y a la la 2 de A

. Es claro que el proceso termina


despues de un n umero nito de pasos.
Se concluye que para calcular el rango de una matriz basta contar el n umero de unos
que hay en su diagonal principal.
Ejemplo: Calcular el rango de
A =
_
_
_
_
_
_
0 2 4
1 4 5
3 1 7
0 5 10
2 3 0
_
_
_
_
_
_
2.6. EQUIVALENCIA DE MATRICES 45
A
1
=
_
_
_
_
_
_
1 4 5
3 1 7
2 3 0
0 1 2
0 1 2
_
_
_
_
_
_
A
2
=
_
_
_
_
_
_
1 4 5
3 1 7
2 3 0
0 1 2
0 0 0
_
_
_
_
_
_
A
3
=
_
_
_
_
_
_
1 4 5
0 11 22
0 5 10
0 1 2
0 0 0
_
_
_
_
_
_
A
4
=
_
_
_
_
_
_
1 4 5
0 1 2
0 1 2
0 1 2
0 0 0
_
_
_
_
_
_
A
5
=
_
_
_
_
_
_
1 4 5
0 1 2
0 0 0
0 0 0
0 0 0
_
_
_
_
_
_
A
6
=
_
_
_
_
_
_
1 0 0
0 1 2
0 0 0
0 0 0
0 0 0
_
_
_
_
_
_
A
7
=
_
_
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0
0 0 0
_
_
_
_
_
_
rango A = 2.
Ejemplo: Calcular el rango de
A =
_
_
_
_
_
_
_
_
1 2 6 2 1
2 1 0 5 1
3 1 1 8 1
1 0 2 4 1
1 2 7 3 2
2 2 5 1 1
_
_
_
_
_
_
_
_
A
1
=
_
_
_
_
_
_
_
_
1 1 2 6 2
1 2 1 0 5
1 3 1 1 8
1 1 0 2 4
2 1 2 7 3
1 2 2 5 1
_
_
_
_
_
_
_
_
A
2
=
_
_
_
_
_
_
_
_
1 1 2 6 2
0 3 3 6 3
0 4 3 5 6
0 2 2 4 2
0 1 2 5 1
0 1 0 1 3
_
_
_
_
_
_
_
_
A
3
=
_
_
_
_
_
_
_
_
1 1 2 6 2
0 1 1 2 1
0 4 3 5 6
0 1 1 2 1
0 1 2 5 1
0 1 0 1 3
_
_
_
_
_
_
_
_
A
4
=
_
_
_
_
_
_
_
_
1 1 2 6 2
0 1 1 2 1
0 4 3 5 6
0 1 2 5 1
0 1 0 1 3
0 0 0 0 0
_
_
_
_
_
_
_
_
46 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


A
5
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 1 2 1
0 4 3 5 6
0 1 2 5 1
0 1 0 1 3
0 0 0 0 0
_
_
_
_
_
_
_
_
A
6
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 1 2 1
0 0 1 3 2
0 0 1 3 2
0 0 1 3 2
0 0 0 0 0
_
_
_
_
_
_
_
_
A
7
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 1 2 1
0 0 1 3 2
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
_
_
_
_
_
_
_
_
A
8
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 3 2
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
_
_
_
_
_
_
_
_
A
9
=
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
_
_
_
_
_
_
_
_
rango A = 3.
2.7. Soluciones de sistemas de ecuaciones lineales
2.7.1. Compatibilidad para sistemas no homogeneos
Teorema 2.23 El sistema de s ecuaciones lineales con n incognitas
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
s1
x
1
+a
s2
x
2
+ +a
sn
x
n
= b
s
(2.13)
es compatible si y solo si el rango de la matriz A del sistema es igual al rango de la
matriz ampliada

A del sistema.
Demostracion: Supongamos que el sistema es compatible, sea (k
1
, k
2
, . . . , k
n
) una
solucion. Reemplazando en (2.13) se tiene
n

r=1
a
ir
k
r
= b
i
i = 1, 2, . . . , s (2.14)
Interpretemos las columnas de A y la ultima columna de

A como vectores en R
s
, sean

j
= (a
1j
, a
2j
, . . . , a
sj
) j = 1, 2, . . . , n
= (b
1
, b
2
, . . . , b
s
)
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 47
Entonces
n

i=1
k
i

i
= k
1
(a
11
, a
21
, . . . , a
s1
) +k
2
(a
12
, a
22
, a
32
, . . . , a
s2
) + +k
n
(a
1n
, a
2n
, . . . , a
sn
)
=
_
n

r=1
a
1r
k
r
,
n

r=1
a
2r
k
r
, . . . ,
n

r=1
a
sr
k
r
_
Se concluye que (2.14) es equivalente a
n

i=1
k
i

i
=
luego la ultima columna de

A se expresa linealmente mediante las columnas de A (es
obvio que las demas tambien). Es claro que toda columna de A se expresa linealmente
mediante las columnas de

A. Entonces ambos sistemas de columnas son equivalentes
y por lo tanto tienen el mismo rango.
Si el rango de A es igual al de

A cualquier sistema linealmente independiente maximal
de columnas de A es linealmente independiente maximal mirado como parte del sistema
de columnas de

A. Entonces la ultima columna de

A se expresa linealmente mediante
un sistema linealmente independiente maximal de columnas de A y por lo tanto es
combinacion lineal de las columnas de A. Entonces hay n umeros k
1
, k
2
, . . . , k
n
tales
que
n

i=1
k
i

i
=
o sea, (k
1
, k
2
, . . . , k
n
) es solucion del sistema.
Supongamos que el sistema es compatible y que el rango de A es igual a r. Sin perdida
de generalidad podemos suponer que las r primeras las de A son l.i. (basta reor-
denar las ecuaciones). Supongamos que las r primeras las de

A son l.d. Entonces hay
n umeros
1
,
2
, . . . ,
n
no todos nulos tales que
r

i=1

i
(a
i1
, a
i2
, . . . , a
ir
,
i
) = 0
r

i=1

i
a
ij
= 0 j = 1, 2, . . . , n,
r

i=1

i
= 0
lo cual implica que
r

i=1

i
(a
i1
, a
i2
, . . . , a
in
) = 0, contradiccion. Las r primeras las de

A son entonces l.i. y forman un sistema linealmente independiente maximal de las


de

A. Se deduce que las ecuaciones r + 1, r + 2, . . . , s son combinaciones lineales de
las r primeras ecuaciones. Toda solucion de las r primeras es por lo tanto solucion de
todo el sistema y viceversa, el sistema (2.13) es equivalente al sistema formado por las
r primeras ecuaciones. Basta entonces resolver el sistema
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
r1
x
1
+a
r2
x
2
+ +a
rn
x
n
= b
r
(2.15)
Como r mn(s, n) entonces r n.
48 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Caso 1: r = n. Entonces el menor M formado por los coecientes de las r primeras
incognitas es distinto de cero (las r primeras las de A son l.i.), (2.15) es un sistema
de r = n ecuaciones con n incognitas y determinante M ,= 0, por la regla de Cramer
tiene solucion unica.
Caso 2: r < n. Llamaremos incognitas independientes a x
r+1
, x
r+2
, . . . , x
n
. Asignemos
a ellas valores arbitrarios c
r+1
, c
r+2
, . . . , c
n
y reescribamos (2.15) como
a
11
x
1
+ +a
1r
x
r
= b
1
a
1(r+1)
c
r+1
a
1(r+2)
c
r+2
a
1n
c
n
a
21
x
1
+ +a
2r
x
r
= b
2
a
2(r+1)
c
r+1
a
2(r+2)
c
r+2
a
2n
c
n
.
.
.
a
r1
x
1
+ +a
rr
x
r
= b
r
a
r(r+1)
c
r+1
a
r(r+2)
c
r+2
a
rr
c
n
(2.16)
Este es un sistema de r ecuaciones con r incognitas con determinante M ,= 0 y para
cada juego de valores c
r+1
, c
r+2
, . . . , c
n
hay una solucion unica (c
1
, c
2
, . . . , c
r
) (la cual
se calcula mediante la regla de Cramer). Es claro que
(c
1
, c
2
, . . . , c
r
, c
r+1
, . . . , c
n
)
es una solucion del sistema (2.15), y como ella depende de nr parametros arbitrarios
se tiene que el sistema original tiene innitas soluciones.
Son estas todas las soluciones del sistema? Sea (k
1
, k
2
, . . . , k
n
) una solucion arbitraria
de (2.15). Reemplazando en (2.15) y escribiendo las r identidades resultantes en la for-
ma (2.16) podemos interpretar as:
(k
1
, k
2
, . . . , k
r
) es la unica solucion de (2.16) que se obtiene asignado los valores k
r+1
,
k
r+2
, . . . , k
n
a las incognitas independientes. Luego (k
1
, k
2
, . . . , k
n
) se puede obtener
por el metodo recien descrito, dicho metodo entrega todas las soluciones del sistema
original.
Nota: Un sistema lineal compatible tiene solucion unica si y solo si el rango de la
matriz del sistema es igual al n umero de incognitas.
Ejemplo: Resolver
_
_
5 1 2 1 7
2 1 4 2 1
1 3 6 5 0
_
_
Notese que

5 1
2 1

,= 0,

5 1 2
2 1 4
1 3 6

1 3 6
2 1 4
1 3 6

= 0,

5 1 1
2 1 2
1 3 5

1 3 5
2 1 2
1 3 5

= 0
luego el rango de A es 2, sin embargo

5 1 7
2 1 1
1 3 0

1 3 5
2 1 1
1 3 0

0 0 5
2 1 1
1 3 0

,= 0
luego el rango de

A es 3, el sistema es incompatible.
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 49
Ejemplo: Resolver
_
_
7 3 2
1 2 3
4 9 11
_
_
Notese que

7 3
1 2

,= 0 luego el rango de A es 2.

7 3 2
1 2 3
4 9 11

4 9 11
1 2 3
4 9 11

= 0 ,
el rango de

A es 2, el sistema es compatible, las dos primeras ecuaciones son l.i.,
r = n = 2, la solucion es unica y se obtiene resolviendo
7x
1
+ 3x
2
= 2
x
1
2x
2
= 3
x
1
=
5
17
, x
2
=
23
17
Ejemplo: Resolver
_
_
1 1 2 1 1 1
3 1 1 4 3 4
1 5 9 8 1 0
_
_
Notese que

1 1
3 1

,= 0 pero

1 1 2
3 1 1
1 5 9

1 1 2
0 4 7
0 4 7

= 0

1 1 1
3 1 4
1 5 8

1 1 1
0 4 7
0 4 7

= 0

1 1 1
3 1 3
1 5 1

1 1 1
0 4 0
0 4 0

= 0
luego el rango de A es 2.

1 1 1
3 1 4
1 5 0

1 1 1
0 4 1
0 4 1

= 0 ,
rango

A = 2, el sistema es compatible.
Como las dos primeras las de

A son l.i. el sistema se reduce a las dos primeras
ecuaciones, elijamos x
3
, x
4
, x
5
como incognitas independientes
x
1
+x
2
= 1 + 2x
3
+x
4
x
5
3x
1
x
2
= 4 x
3
4x
4
3x
5
50 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Luego
x
1
=
1
4
(5 +x
3
3x
4
4x
5
)
x
2
=
1
4
(1 7x
3
7x
4
)
Ejemplo: Resolver
_
_
_
_
4 1 2 1 3
1 2 1 2 2
2 5 0 1 1
3 3 1 3 1
_
_
_
_
Notese que

4 1 2
1 2 1
2 5 0

2 5 0
1 2 1
2 5 0

= 0
pero

1 2 1
2 1 2
5 0 1

1 2 1
4 3 0
4 2 0

,= 0

4 1 2 1
1 2 1 2
2 5 0 1
3 3 1 3

4 1 2 1
7 4 3 0
2 4 2 0
15 6 7 0

7 4 3
2 4 2
15 6 7

15 12 11
2 4 2
15 6 7

15 12 11
2 4 2
0 18 4

= 4

15 12 11
1 2 1
0 9 2

= 4

0 18 4
1 2 1
0 9 2

= 0 ,
se concluye que rango A = 3. El unico menor orlado de 4 4 en

A es (el otro es el
det A que ya vimos que es cero)

1 2 1 3
2 1 2 2
5 0 1 1
3 1 3 1

1 2 1 3
0 5 4 8
0 10 4 16
0 5 6 8

5 4 8
10 4 16
5 6 8

= 0
pues las columnas 1 y 3 son proporcionales; el rango de

A es 3 luego el sistema es
compatible.
Notese que no es posible usar la regla de Cramer, que la incognita independiente es
x
1
, que las tres primeras las de

A son l.i., despues de estos considerandos tenemos:
x
2
2x
3
+x
4
= 3 4x
1
2x
2
x
3
+ 2x
4
= 2 x
1
5x
2
+x
4
= 1 2x
1

x
2
2x
3
+x
4
= 3 4x
1
5x
3
+x
4
= 8 9x
1
10x
3
4x
4
= 16 + 18x
1
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 51
Sumando las dos ultimas tenemos 5x
3
= 8+9x
1
, reemplazando en la segunda tenemos
x
4
= 0. Al reemplazar en la primera ecuacion se obtiene
5x
2
2(8 + 9x
1
) = 15 20x
1
x
2
=
1
5
(1 2x
1
)
2.7.2. Sistemas homogeneos
En este caso rango A = rango

A luego son siempre compatibles. Si r = n, la unica
solucion del sistema es la trivial, si r < n el sistema tiene innitas soluciones. En
particular, si el n umero de ecuaciones es igual al n umero de incognitas el sistema tiene
soluciones distintas de la trivial si y solo si det A = 0 (r < n).
Sean
= (a
1
, a
2
, . . . , a
n
)
= (b
1
, b
2
, . . . , b
n
)
soluciones de un sistema homogeneo. Entonces cualquier combinacion lineal de ellas
es tambien solucion, esto es, si , son n umeros arbitrarios, + es solucion del
sistema (lo cual no es cierto para sistemas no homogeneos).
Puesto que las soluciones pueden ser interpretadas como vectores en R
n
, un conjunto
de soluciones linealmente independiente maximal con respecto al conjunto de todas las
soluciones del sistema puede constar a lo mas de n soluciones, entonces existe un con-
junto nito de soluciones del cual todas las demas son combinaciones lineales. Dicho
conjunto se llamara un sistema fundamental de soluciones. Por un teorema previo, to-
dos los conjuntos fundamentales de soluciones constan del mismo n umero de soluciones.
Teorema 2.24 Sea A la matriz de un sistema homogeneo de s ecuaciones con n
incognitas, sea r igual al rango de A. Entonces un conjunto fundamental de soluciones
consta de n r soluciones.
Demostracion: Sin perdida de generalidad podemos suponer que las incognitas inde-
pendientes son x
r+1
, x
r+2
, . . . , x
n
. Sea d un determinante arbitrario de (nr)(nr)
distinto de cero. Sea
d =

c
1(r+1)
c
1(r+2
) c
1n
c
2(r+1)
c
2(r+2)
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
(nr)(r+1)
c
(nr)(r+2)
c
(nr)n

Adoptemos como valores para las incognitas independientes los elementos de la i-esima
la de d, esto es,
x
r+1
= c
i(r+1)
, x
r+2
= c
i(r+2)
, x
n
= c
in
,
sea
i
= (c
i1
, c
i2
, , c
ir
, c
i(r+1)
, , c
in
) la solucion del sistema obtenida para dichos
valores de las incognitas independientes, 1 i n r.
52 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Si formamos la matriz de (n r) n cuyas las son
1
,
2
, . . . ,
nr
ella tiene un
menor de (n r) (n r) que es distinto de cero (es precisamente d) luego el rango
de dicha matriz es n r. Se concluye que
1
,
2
, . . . ,
nr
son l.i.
Sea = (b
1
, b
2
, . . . , b
n
) una solucion arbitraria del sistema. Designemos por

i
,

i
= (c
i(r+1)
, c
i(r+2)
, . . . , c
in
) i = 1, 2, . . . , n r y

= (b
r+1
, b
r+2
, . . . , b
n
)
Es claro que

1
,

2
, . . . ,

nr
son un sistema l.i. de vectores en R
nr
y que en R
nr
el sistema

1
,

2
, . . . ,

nr
,

es l.d., entonces hay n umeros k


1
, k
2
, . . . , k
nr
tales
que

= k
1

1
+k
2

2
+ +k
nr

nr
En R
n
, sea
=
nr

i=1
k
i

i
.
Puesto que es combinacion lineal de soluciones del sistema, el mismo tambien es
solucion del sistema. Pero tiene sus ultimas n r componentes iguales a cero, luego
es la solucion obtenida cuando x
r+1
= x
r+2
= = x
n
= 0. Como el sistema es
homogeneo esta es precisamente la solucion trivial luego = 0 y
=
nr

i=1
k
i

i
.
El sistema
1
,
2
, . . . ,
nr
es maximal.
Ejemplo: Encuentre un sistema fundamental de soluciones para
_
_
_
_
3 1 8 2 1 0
2 2 3 7 2 0
1 11 12 34 5 0
1 5 2 16 3 0
_
_
_
_
En la matriz A del sistema hagamos las siguientes transformaciones elementales:
A la tercera la restamos dos veces la primera, sumamos dos veces la segunda y una
vez la cuarta, obtenemos
A
1
=
_
_
_
_
3 1 8 2 1
2 2 3 7 2
0 0 0 0 0
1 5 2 16 3
_
_
_
_
En A
1
permutamos la tercera la y la cuarta:
A
2
=
_
_
_
_
3 1 8 2 1
2 2 3 7 2
1 5 2 16 3
0 0 0 0 0
_
_
_
_
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 53
luego
A
3
=
_
_
_
_
1 5 2 16 3
2 2 3 7 2
1 5 2 16 3
0 0 0 0 0
_
_
_
_
A
4
=
_
_
_
_
1 5 2 16 3
2 2 3 7 2
0 0 0 0 0
0 0 0 0 0
_
_
_
_
Es claro que rango A = 2 y que podemos elegir x
3
, x
4
, x
5
como incognitas indepen-
dientes.
x
1
+ 5x
2
= 2x
3
16x
4
+ 3x
5
2x
1
2x
2
= 3x
3
+ 7x
4
2x
5
8x
2
= 7x
3
25x
4
+ 4x
5
x
2
=
1
8
(7x
3
25x
4
+ 4x
5
)
2x
1

1
4
(7x
3
25x
4
+ 4x
5
) = 3x
3
+ 7x
4
2x
5
8x
1
7x
3
+ 25x
4
4x
5
= 12x
3
+ 28x
4
8x
5
x
1
=
1
8
(19x
3
+ 3x
4
4x
5
)
Tomemos d como
d =

1 0 0
0 1 0
0 0 1

Obtenemos

1
= (
19
8
,
7
8
, 1, 0, 0)

2
= (
3
8
,
25
8
, 0, 1, 0)

3
= (
1
2
,
1
2
, 0, 0, 1)
2.7.3. Soluciones para sistemas arbitrarios
Una manera de escribir las soluciones de un sistema lineal arbitrario es la siguiente.
Supongamos que por alg un metodo se ha encontrado una solucion de el. La llaramemos
una solucion particular del sistema y la designaremos por
p
. Sea una solucion
cualquiera del sistema, sea
1
,
2
, . . . ,
nr
un sistema fundamental de soluciones del
correspondiente sistema homogeneo. Como
p
es solucion del sistema homogeneo,
hay n umeros k
1
, k
2
, . . . , k
nr
tales que

p
=
nr

i=1
k
i

i
.
Se concluye que , conocida una solucion del sistema, basta resolver el correspondiente
sistema homogeneo, ya que todas las soluciones del sistema original son de la forma
= solucion particular + una solucion del sistema homogeneo .
54 CAP

ITULO 2. RELACIONES DE DEPENDENCIA LINEAL


Captulo 3

Algebra de matrices
Denicion 3.1 Sean A = (a
ij
), B = (b
ij
) matrices de mn. A y B se dicen iguales
si
a
ij
= b
ij
1 i m 1 j n
Dos matrices son iguales si y solo si sus elementos correspondientes son iguales.
Denicion 3.2 Sean A = (a
ij
), B = (b
ij
) matrices de m n. Llamaremos matriz
suma de A y B a la matriz de mn
A+B = (a
ij
+b
ij
)
Es trivial que la operacion suma de matrices tiene las siguientes propiedades:
i.- A+B = B +A
ii.- A+ (B +C) = (A+B) +C
iii.- Existe una unica matriz de m n, la matriz 0 = (0
ij
) donde 0
ij
= 0 para todo
1 i m, 1 j n, tal que A+ 0 = A para toda matriz A de mn.
iv.- Dada una matriz A = (a
ij
) de mn, existe una unica matriz de mn
A = (a
ij
)
tal que A+ (A) = 0.
Denicion 3.3 Sea A = (a
ij
) matriz de mn, k un n umero arbitrario. Llamaremos
matriz producto de A por el n umero k a
kA = (ka
ij
)
Es trivial que la operacion multiplicacion de una matriz por un n umero k tiene las
siguientes propiedades:
i.- 1 A = A
ii.- k
1
(k
2
A) = (k
1
k
2
)A
iii.- k(A
1
+A
2
) = kA
1
+kA
2
iv.- (k
1
+k
2
)A = k
1
A+k
2
A
55
56 CAP

ITULO 3.

ALGEBRA DE MATRICES
3.1. Producto de matrices
Denicion 3.4 Sea A = (a
ij
) matriz de mn, B = (b
ij
) matriz de nq. Llamaremos
matriz producto de A y B a la matriz de mq
AB = (c
ij
)
donde c
ij
=
n

k=1
a
ik
b
kj
1 i m, 1 j q.
Ejemplo: Sea A =
_
_
a
11
a
12
a
21
a
22
a
31
a
32
_
_
, B =
_
b
11
b
21
_
. Entonces
AB =
_
_
a
11
b
11
+a
12
b
21
a
21
b
11
+a
22
b
21
a
31
b
11
+a
32
b
21
_
_
.
Nota: De la denicion se ve que en general el producto de matrices no es conmutativo,
pues el n umero de las y columnas de la matriz producto cambia si se altera el orden
de los factores, salvo si se multiplican matrices cuadradas del mismo orden. Pero a un
cuando A y B sean ambas de n n el producto en general no es conmutativo, por
ejemplo, si
A =
_
1 2
0 1
_
, B =
_
1 2
1 1
_
AB =
_
3 4
1 1
_
, BA =
_
1 4
1 3
_
La operacion multiplicacion de matrices tiene las siguientes propiedades:
i.- Si k es un n umero, A una matriz de mn, B matriz de n q, entonces
(kA)B = A(kB) = kAB
ii.- Si A es una matriz de mn, B y C son matrices de n q, entonces
A(B +C) = AB +AC
y si B y C son matrices de mn y A es matriz de n q, entonces
(B +C)A = BA+CA.
iii.- El producto de matrices es asociativo. Sean A = (a
ij
) de m n, B = (b
ij
) de
n q, C = (c
ij
) de q r, entonces
(AB)C =
_
q

k=1
(AB)
ik
c
kj
_
=
_
q

k=1
_
n

l=1
a
il
b
lk
_
c
kj
_
=
_
n

l=1
a
il
q

k=1
b
lk
c
kj
_
=
_
n

l=1
a
il
(BC)
lj
_
= A(BC)
3.1. PRODUCTO DE MATRICES 57
Teorema 3.5 Sean A y B matrices de n n. Entonces det AB = det Adet B.
Demostracion: Sea A = (a
ij
), B = (b
ij
). Sea el determinante auxiliar de 2n 2n
=

a
11
a
12
a
1n
0 0 0
a
21
a
22
a
2n
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
0 0 0
1 0 0 b
11
b
12
b
1n
0 1 0 b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 b
n1
b
n2
b
nn

Aplicando el desarrollo de Laplace por menores de n n de las n primeras las y n


primeras columnas se tiene que = det Adet B.
Llamemos C
i
a la i-esima columna de , 1 i 2n. En hagamos las siguientes
transformaciones: a la columna (n + 1) sumemos
b
11
C
1
+b
21
C
2
+ +b
n1
C
n
La columna (n + 1) de queda as:
n

k=1
a
1k
b
k1
n

k=1
a
2k
b
k1
.
.
.
n

k=1
a
nk
b
k1
0
0
.
.
.
0
Luego a la columna n + 2 sumamos
b
12
C
1
+b
22
C
2
+ +b
n2
C
n
58 CAP

ITULO 3.

ALGEBRA DE MATRICES
La columna n + 2 de queda as:
n

k=1
a
1k
b
k2
n

k=1
a
2k
b
k2
.
.
.
n

k=1
a
nk
b
k2
0
0
.
.
.
0
Despues de n etapas se tiene
=

a
11
a
12
a
1n
n

k=1
a
1k
b
k1
n

k=1
a
1k
b
k2

n

k=1
a
1k
b
kn
a
21
a
22
a
2n
n

k=1
a
2k
b
k1
n

k=1
a
2k
b
k2

n

k=1
a
2k
b
kn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
n

k=1
a
nk
b
k1
n

k=1
a
nk
b
k2

n

k=1
a
nk
b
kn
1 0 0 0 0 0
0 1 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0 0

donde los elementos c


ij
que estan en las las 1,2,. . . , n y las columnas n + 1, n + 2,
. . . , 2n son de la forma
c
ij
=
n

k=1
a
ik
b
kj
1 i n, 1 j n
esto es, ellos son los elementos de la matriz AB. Desarrollando por Laplace pero
ahora por los menores de n n de las ultimas las se tiene
= (1)
n+1+n+2++n+n+1+2++n
(1)
n
det AB
Pero
(n + 1 +n + 2 + +n +n + 1 + 2 + +n) +n = n
2
+ 2
n(n + 1)
2
+n = 2n
2
+ 2n
es par luego = det AB y tambien = det Adet B.
Denicion 3.6 Sea A matriz de n n. Diremos que A es singular si det A = 0.
3.2. MATRICES INVERSAS 59
Del teorema se deduce que si A es singular o B es singular entonces AB es singular.
Recordemos que el smbolo
ij
(delta de Kronecker) se dene como
ij
= 0 si i ,= j y

ii
= 1.
Llamaremos matriz identidad de n n a la matriz I de n n tal que I = (
ij
). Si A
es cualquier matriz de n n y A = (a
ij
) entonces
AI =
_
n

k=1
a
ik

kj
_
= (a
ij
) = A,
analogamente IA = A.
Notese que I es unica. Si hubiese otra matriz I

de n n tal que AI

= I

A = A A
entonces
I = II

= I

I
I

= II

= I

I
Notese que det I = 1.
3.2. Matrices inversas
Resolvamos ahora el siguiente problema: dada una matriz A de n n buscamos una
matriz B de n n tal que AB = BA = I.
Puesto que det AB = det Adet B = 1, para que B pueda existir A debe ser no singular.
Nota: Recordemos que la matriz traspuesta de A = (a
ij
) es la matriz A
t
= (b
ij
)
donde b
ij
= a
ji
.
Denicion 3.7 Sea A = (a
ij
) matriz de n n. Llamaremos matriz adjunta de A a
la matriz de n n A

= (b
ij
), donde b
ij
= A
ji
, esto es, el elemento que esta en la
interseccion d ela la i y la columna j de A

es el adjunto del elemento correspondiente


de A
t
A

= (A
ji
) =
_
_
_
_
_
A
11
A
21
A
n1
A
12
A
22
A
n2
.
.
.
.
.
.
.
.
.
.
.
.
A
1n
A
2n
A
nn
_
_
_
_
_
Ejemplo: Sea A =
_
_
1 0 1
2 1 0
0 1 2
_
_
.
A
11
=

1 0
1 2

= 2 A
12
=

2 0
0 2

= 4 A
13
=

2 1
0 1

= 2
A
21
=

0 1
1 2

= 1 A
22
=

1 1
0 2

= 2 A
23
=

1 0
0 1

= 1
A
31
=

0 1
1 0

= 1 A
32
=

1 1
2 0

= 2 A
33
=

1 0
2 1

= 1
60 CAP

ITULO 3.

ALGEBRA DE MATRICES
Entonces
A

=
_
_
2 1 1
4 2 2
2 1 1
_
_
Notese que
AA

=
_
_
1 0 1
2 1 0
0 1 2
_
_
_
_
2 1 1
4 2 2
2 1 1
_
_
=
_
_
4 0 0
0 4 0
0 0 4
_
_
A

A =
_
_
2 1 1
4 2 2
2 1 1
_
_
_
_
1 0 1
2 1 0
0 1 2
_
_
=
_
_
4 0 0
0 4 0
0 0 4
_
_
Sea A no singular, sea d = det A, entonces
AA

=
_
n

k=1
a
ik
(A

)
kj
_
=
_
n

k=1
a
ik
A
jk
_
Si i = j,
n

k=1
a
ik
A
ik
= d, si i ,= j,
n

k=1
a
ij
A
jk
= 0, luego AA

= (d
ij
) = dI. Analoga-
mente,
A

A =
_
n

k=1
A
ki
a
kj
_
= dI
Se tiene que det AA

= d
n
luego det A

= d
n1
, si A es no singular, A

tambien es no
singular.
Sea B =
1
d
A

, entonces AB = BA = I. Diremos que B es una matriz inversa de A.


Sea B

otra matriz inversa de A, entonces AB

= B

A = I luego (B

A)B = B y
B

(AB) = B

, entonces B

= B. Se concluye que una matriz no singular A tiene una


inversa unica. La designaremos por A
1
y A
1
= (
1
d
A
ji
) donde A
ji
es el adjunto de a
ji
.
3.3. Representacion matricial de un sistema de ecua-
ciones
Sea A = (a
ij
) la matriz de sn de los coecientes de un sistema lineal de s ecuaciones
con n incognitas, sea
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
la matriz de n 1 de las incognitas, sea
B =
_
_
_
_
_
b
1
b
2
.
.
.
b
s
_
_
_
_
_
3.4. RANGO DE UN PRODUCTO DE MATRICES 61
la matriz de s 1 de los terminos libres. Aprovechando las deniciones de producto
de matrices e igualdad de matrices podemos escribr matricialmente el sistema como
AX = B.
Supongamos que s = n y A es no singular, entonces X = A
1
B. Puesto que si d ,= 0, de
la regla de Cramer sabemos que la solucion X es unica, dicho resultado debe coincidir
con aquel entregado por la regla de Cramer. En efecto,
X = (x
i1
) = (x
i
) = A
1
B =
_
(A
1
B)
i1
_
=
_
n

k=1
(A
1
)
ik
B
k1
_
=
_
n

k=1
1
d
A
ki
b
k1
_
=
1
d
_
n

k=1
b
k
A
ki
_
= (
d
i
d
)
3.4. Rango de un producto de matrices
Sea A = (a
ij
) matriz de mn, B = (b
ij
) matriz de np. Sea C = AB matriz de mp.
Teorema 3.8 rango C rango A, rango C rango B.
Demostracion: Si rango de B = 0 (B es la matriz cero) entonces AB = 0 y
rango C = 0, el teorema se cumple.
Si rango B = p (todas las columnas son l.i.), como el rango de C no puede exceder el
n umero de columnas de C se tiene rango C rango B.
Sea rango B = r, 0 < r < p. Para simplicar la notacion en la demostracion suponga-
mos que las r primeras columnas de B son l.i. Consideremos la columna k, k > r; hay

1
,
2
, . . . ,
r
tales que
_
_
_
_
_
b
1k
b
2k
.
.
.
b
nk
_
_
_
_
_
=
1
_
_
_
_
_
b
11
b
21
.
.
.
b
n1
_
_
_
_
_
+
2
_
_
_
_
_
b
12
b
22
.
.
.
b
n2
_
_
_
_
_
+ +
r
_
_
_
_
_
b
1r
b
2r
.
.
.
b
nr
_
_
_
_
_
esto es,
b
jk
=
r

s=1

s
b
js
j = 1, 2, . . . , n.
Puesto que c
ik
=
n

j=1
a
ij
b
jk
se tiene que
c
ik
=
n

j=1
a
ij
r

s=1

s
b
js
=
r

s=1
_
_

s
n

j=1
a
ij
b
js
_
_
=
n

s=1

s
c
is
1 i m,
esto es
_
_
_
_
_
c
1k
c
2k
.
.
.
c
mk
_
_
_
_
_
=
1
_
_
_
_
_
c
11
c
21
.
.
.
c
m1
_
_
_
_
_
+
2
_
_
_
_
_
c
12
c
22
.
.
.
c
m2
_
_
_
_
_
+ +
r
_
_
_
_
_
c
1r
c
2r
.
.
.
c
mr
_
_
_
_
_
62 CAP

ITULO 3.

ALGEBRA DE MATRICES
luego en C la columna k, k > r, es combinacion lineal de las r primeras columnas, se
concluye que el rango de C es menor o igual que r.
Nota: (AB)
t
= (
ij
) donde

ij
= (AB)
ji
=
n

k=1
a
jk
b
ki
=
n

k=1
(B
t
)
ik
(A
t
)
kj
luego (AB)
t
= B
t
A
t
.
Entonces C
t
= B
t
A
t
luego rango C
t
rango A
t
pero rango C
t
= rango C, rango A
t
=
rango A luego rango C rango A.
Corolario 3.9 Sea A matriz de mn, B matriz no singular de n n, D matriz no
singular de mm. Entonces rango AB = rango A y rango DA = rango A.
Demostracion: rango AB rango A, pero A = A(BB
1
) = (AB)B
1
luego rango A
rango AB. Analogamente para D.
El rango se preserva bajo multiplicacion por una matriz no singular.
Nota: En la demostracion del teorema no es necesario recurrir a la matriz traspuesta.
De la denicion del producto de matrices se tiene que c
ik
=
n

j=1
a
ij
b
jk
, i = 1, 2, . . . , n.
Por otra parte
n

j=1
b
jk
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
n

j=1
b
jk
a
1j
n

j=1
b
jk
a
2j
.
.
.
n

j=1
b
jk
a
mj
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
c
1k
c
2k
.
.
.
c
mk
_
_
_
_
_
Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas de
AB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistema
de columns de C se expresa linealmente mediante el sistema de columnas de A, por
teorema previo, rango C rango A.
Por otra parte, sea i jo, entonces c
ij
=
n

k=1
a
ik
b
kj
, 1 i n. Consideremos
n

k=1
a
ik
(b
k1
, b
k2
, . . . , b
kp
) =
_
n

k=1
a
ik
b
k1
,
n

k=1
a
ik
b
k2
, ,
n

k=1
a
ik
b
kp
_
= (c
i1
, c
i2
, . . . , c
ip
)
Luego, en general, al pre - multiplicar una matriz B por una matriz A las las de
AB son combinaciones lineales de las las de B, el sistema de las de C se expresa
linealmente mediante el sistema de las de B luego rango AB rango B.
Captulo 4
Vectores en R
n
4.1. Propiedades
Con el n de estudiar los sistemas lineales de ecuaciones introdujimos una estructura
algebraica auxiliar a la cual designamos por R
n
. Por el momento nos olvidaremos de
las operaciones de suma y multiplicacion por un n umero y focalizaremos nuestro in-
teres en el conjunto R
n
a cuyos elementos llamaremos puntos.
Sean P = (x
1
, x
2
, . . . , x
n
), Q = (y
1
, y
2
, . . . , y
n
) puntos de R
n
, llamaremos recta por P
y Q al siguiente conjunto de puntos de R
n
:
(z
1
, z
2
, . . . , z
n
) : z
i
= x
i
+(y
i
x
i
), i = 1, 2, . . . , n, < <
Llamaremos segmento PQ a la totalidad de los puntos de la recta por P y Q para los
cuales 0 1.
Los puntos P y Q del segmento PQ se llaman los puntos extremos del segmento. El
segmento PQ se dice dirigido si a uno de los puntos extremos P, Q lo llamamos punto
inicial y al otro, punto nal. Si el punto inicial es P el segmento dirigido se designa
por

PQ, si el punto inicial es Q se designa por

QP. A los segmentos dirigidos los
llamaremos vectores en R
n
, a las n diferencias y
i
x
i
, i = 1, 2, . . . , n, las llamaremos
las componentes del vector

PQ. Seg un esta denicion x
i
y
i
, i = 1, 2, . . . , n, son las
componentes del vector

QP. Dos vectores se dicen iguales si y solo si sus componentes
correspondientes son iguales. De acuerdo a esta denicion de igualdad de vectores,
dos vectores que dieren tanto en su punto inicial como en su punto nal pueden ser
iguales, pero una vez elegido arbitrariamente el punto inicial P = (x
1
, x
2
, . . . , x
n
), si
a
1
, a
2
, . . . , a
n
son las componentes del vector, su punto nal Q = (y
1
, y
2
, . . . , y
n
)
queda unicamente determinado por las ecuaciones
y
i
= x
i
+a
i
i = 1, 2, . . . , n
Si un vector tiene componentes a
1
, a
2
, . . . , a
n
lo designaremos por a
1
, a
2
, . . . , a
n
a.
La expresion 0, 0, . . . , 0, la cual no recibe signicado de las deniciones anteriores se
llama vector nulo y se designa por

0.
63
64 CAP

ITULO 4. VECTORES EN R
N
Sean a = a
1
, a
2
, . . . , a
n
,

b = b
1
, b
2
, . . . , b
n
dos vectores, queremos denir la suma
de ellos, la cual se designara por a +

b:
Elijamos arbitrariamente el punto inicial P de a, sea Q su punto nal. Elegimos co-
mo punto inicial de

b a Q, sea R su punto nal. Llamaremos vector suma de a y

b
al vector

PR cuyo punto inicial es P y cuyo punto nal es R. Entonces

PQ+

QR =

PR.
Sea P = (x
1
, x
2
, . . . , x
n
) entonces Q = (y
1
, y
2
, . . . , y
n
) esta dado por
y
i
= x
i
+a
i
i = 1, 2, . . . , n
y R = (z
1
, z
2
, . . . , z
n
) esta dado por
z
i
= y
i
+b
i
i = 1, 2, . . . , n.
Entonces z
i
= x
i
+a
i
+b
i
luego

PR es el vector cuyas componentes son a
1
+b
1
, a
2
+
b
2
, . . . , a
n
+b
n
. As se tiene que
a
1
, a
2
, . . . , a
n
+b
1
, b
2
, . . . , b
n
= a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n

Es claro que la suma es conmutativa, asociativa, tiene una identidad unica que es el
vector nulo y cada vector tiene un unico inverso aditivo.
Denimos el producto del vector a = a
1
, a
2
, . . . , a
n
por el n umero real como el
vector
a a = a
1
, a
2
, , a
n
,
operacion que tiene las siguientes propiedades:
i.- 1 a =a
ii.- (a) = a
iii.- (a +

b) = a +

b
iv.- ( +)a = a +a
Tambien se tiene que
a =

0 = 0 o a =

0
Sean a = a
1
, a
2
, . . . , a
n
,

b = b
1
, b
2
, . . . , b
n
. Al n umero real
n

i=1
a
i
b
i
lo llamaremos
producto escalar de a y

b, lo designaremos por a

b.
Es claro que
a

b =

b a
(a

b) = (a)

b =a (b)
a (

b +c) =a

b +a c
4.2. SUBESPACIOS DE VECTORES EN R
N
65
y que a

b = 0 no implica necesariamente a =

0 o

b =

0. Si a

b = 0 decimos que a y

b
son mutuamente ortogonales.
Diremos que los p vectores a
1
, a
2
, . . . , a
p
son l.d. si hay reales no todos nulos
1
,
2
,
. . . ,
p
tales que
p

i=1

i
a
i
=

0 ,
esto es, si existe una combinacion lineal no trivial de ellos que es igual al vector nulo.
En caso contrario diremos que son l.i. Las propiedades de la relacion de dependencia
o independencia lineal entre vectores son analogas a las denidas en R
n
por lo tanto
no insistiremos en enunciarlas o demostralas, simplemente las usaremos.
Notacion: Llamaremos V al conjunto de los vectores en R
n
premunido de las opera-
ciones de suma y multiplicaci on por un n umero.
A los vectores e
1
= 1, 0, . . . , 0, e
2
= 0, 1, . . . , 0, . . . , e
n
= 0, 0, . . . , 1 los llamare-
mos la base estandar de V . Ellos son claramente l.i.
4.2. Subespacios de vectores en R
n
Denicion 4.1 Sea L V , L ,= . Diremos que L es un subespacio de V si
i.- cada que a L y es un n umero real arbitrario entonces a L.
ii.- cada que a,

b L (a y

b no necesariamente distintos) entonces a +

b L.
Nota: Si L es un subespacio,

0 L.
Sean a
1
, a
2
, . . . , a
p
vectores en V . Sea
L = a : a =
p

i=1

i
a
i
,
i
R i = 1, 2, . . . , p ,
esto es, el conjunto de todas las combinaciones lineales de los vectores a
1
, a
2
, . . . , a
p
.
Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que a
1
, a
2
, . . . , a
p

H entonces
n

i=1

i
a
i
H luego L H. Se concluye que L es el subespacio mas peque no
que contiene a los vectores a
1
, a
2
, a
3
, . . . , a
p
. Diremos que L es el subespacio generado
por los vectores a
1
, a
2
, . . . , a
p
.
Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean a
1
, a
2
, . . . , a
p
vectores
arbitrarios en V , sea L el subespacio generado por ellos. Sean

b
1
,

b
2
, . . . ,

b
q
q vectores
l.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto a
1
, a
2
, . . . , a
p
tal que el conjunto de los vectores restantes unido al conjunto

b
1
,

b
2
, . . . ,

b
q
tambien
genera a L.
66 CAP

ITULO 4. VECTORES EN R
N
Demostracion: Demostraremos el teorema por induccion. Si ning un vector

b
1
,

b
2
,
. . . ,

b
q
se ha dado, o sea q = 0, el teorema es cierto. Supongamos que q > 0 y que
el teorema ha sido demostrado para los primeros q 1 vectores

b
i
. Supongamos que
numeramos los vectores a
1
, a
2
, . . . , a
p
de manera tal que los vectores reemplazados
son a
1
, a
2
, . . . , a
q1
, esto es, de modo tal que L sea generado por

b
1
,

b
2
, . . . ,

b
q1
, a
q
,
. . . , a
p
. Como

b
q
L

b
q
=
q1

i=1

b
i
+
p

i=q

i
a
i
donde
q
,
q+1
, . . . ,
p
no pueden ser todos nulos. Supongamos que
q
,= 0, entonces
a
q
=
1

b
q

1

q
q1

i=1

b
i

1

q
p

i=q+1

i
a
i
=
1

b
q

q1

i=1

b
i

p

i=q+1

q
a
i
Sea c L arbitrario, por la hipotesis de induccion
c =
q1

i=1

b
i
+
p

i=q

i
a
i
,
sustituyendo a
q
se tiene
c =
q1

i=1
(
i

q

q
)

b
i
+

q

b
q
+
p

i=q+1
(
i

q

q
)a
i
.
Esto demuestra que

b
1
,

b
2
, . . . ,

b
q
, a
q+1
, . . . , a
p
generan a L.
Nota: Sean

b
1
,

b
2
, . . . ,

b
q
, q > p, vectores arbitrarios en L. Si ellos fuesen l.i. po-
dramos aplicar el teorema anterior y reemplazar a
1
, a
2
, . . . , a
p
por

b
1
,

b
2
, . . . ,

b
p
de
modo que

b
1
,

b
2
, . . . ,

b
p
generan a L y por lo tanto

b
p+1
, . . . ,

b
q
son combinaciones
lineales de ellos, lo cual es contradiccion.
Se concluye que en L un conjunto l.i. de vectores no puede tener mas de p vectores y
por lo tanto se tiene que en V cualquier conjunto de mas de p combinaciones lineales
de p vectores dados es siempre l.d.
Si a = a
1
, a
2
, . . . , a
n
, a =
n

i=1
a
i
e
i
. Se tiene que V es generado por el conjunto l.i.
e
1
, e
2
, . . . , e
n
. Aplicando la observacion anterior tomando a e
1
, e
2
, . . . , e
n
como los
vectores dados, p = n, conclumos que cualquier conjunto de mas de n vectores en V
es l.d.; un conjunto l.i. de vectores en V puede contener a lo mas n vectores.
Esta observacion permite dar la siguiente
Denicion 4.3 Sea L un subespacio cualquiera de V , supongamos que en L hay p
vectores l.i., 0 p n, y que cualquier conjunto de mas de p vectores en L es l.d.
Diremos que L tiene dimension p. Si p = 0 entonces L = 0.
Supongamos que L tiene dimension p > 0, sean a
1
, a
2
, . . . , a
p
vectores l.i. en L. Si

b L, el conjunto a
1
, a
2
, . . . , a
p
,

b es l.d., hay
1
,
2
, . . . ,
p
,
p+1
no todos nulos
tales que
p

i=1

i
a
i
+
p+1

b = 0 .
4.2. SUBESPACIOS DE VECTORES EN R
N
67
Si
p+1
= 0 obtenemos una contradiccion, luego
p+1
,= 0 y

b es una combinacion
lineal de a
1
, a
2
, . . . , a
p
; cualquier conjunto l.i. de p vectores en L genera a L.
Si L tiene dimension p, diremos que cualquier conjunto l.i. de p vectores en L es una
base de L.
Sea a
1
, a
2
, . . . , a
p
una base de L, sea

b L arbitrario, supongamos que

b puede
representarse de dos maneras distintas como combinacion lineal de los vectores a
1
, a
2
,
. . . , a
p
, esto es,

b =
n

i=1

i
a
i
=
n

i=1

i
a
i
,
entonces
i
=
i
, i = 1, 2, . . . , n (los vectores a
1
, a
2
, . . . , a
p
son l.i.). Cada

b L tiene
una unica representacion en terminos de una base.
Teorema 4.4 Sea L el subespacio generado por los vectores a
1
, a
2
, . . . , a
q
. La di-
mension de L es igual al n umero maximo de vectores l.i. que hay entre los vectores a
1
,
a
2
, . . . , a
q
.
Demostracion: Sea p dicho n umero maximo, supongamos que los vectores dados han
sido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores
a
1
, a
2
, . . . , a
p
, a
p+k
, con 1 k q p, es l.d. luego a
p+k
es una combinacion lineal
de a
1
, a
2
, . . . , a
p
a
p+k
=
p

i=1

(k)
i
a
i
; k = 1, 2, . . . , q p (4.1)
Sea

b L, entonces

b =
q

i=1

i
a
i
, reemplazando a
p+1
, a
p+2
, . . . , a
q
por sus expresiones
(4.1) vemos que

b es una combinacion lineal de a


1
, a
2
, . . . , a
p
.
Entonces L es subconjunto del subespacio generado por a
1
, a
2
, . . . , a
p
y es trivial que
el subespacio generado por a
1
, a
2
, . . . , a
p
es subconjunto de L luego ambos son iguales
y la dimension de L es p.
Nota: Sea L un subespacio en V . Sea L

otro subespacio de V contenido en L, su-


pongamos que la dimension de L es p y que la dimension de L

es igual a la de L.
Entonces si a
1
, a
2
, . . . , a
p
es una base de L

, tambien lo es de L luego el conjunto de


las combinaciones lineales de a
1
, a
2
, . . . , a
p
es igual a L

y a L, entonces L

= L.
Luego si L

esta propiamente contenido en L, necesariamente la dimension de L

es
menor que la de L.
Teorema 4.5 Sea L un subespacio de dimension p, sean

b
1
,

b
2
, . . . ,

b
k
un conjunto
arbitrario de vectores l.i. en L, k p. Entonces

b
1
,

b
2
, . . . ,

b
k
puede ser extendido a
una base de L agregando de manera ordenada p k vectores a
k+1
, a
k+2
, . . . , a
p
(de
modo que

b
1
,

b
2
, . . . ,

b
k
, a
k+1
, . . . , a
p
sea un conjunto l.i.).
Demostracion: Sea a
1
, a
2
, . . . , a
p
una base de L. Por el teorema de Steinitz (podemos
suponer los a
1
, a
2
, . . . , a
p
adecuadamente ordenados) podemos reemplazar a
1
, a
2
, . . . ,
68 CAP

ITULO 4. VECTORES EN R
N
a
k
por

b
1
,

b
2
, . . . ,

b
k
de modo que el conjunto

b
1
,

b
2
, . . . ,

b
k
, a
k+1
, . . . , a
p
tambien
genera a L. Pero dimL = p luego, por el teorema anterior,

b
1
,

b
2
, . . . ,

b
k
, a
k+1
, . . . ,
a
p
es l.i.
Nota: Dados dos subespacios L
1
, L
2
, L
1
L
2
es siempre no vaco puesto que

0
L
1
L
2
. Es claro que si a L
1
L
2
, a L
1
y a L
2
luego a L
1
L
2
y si
a,

b L
1
L
2
, a +

b L
1
y a +

b L
2
luego a +

b L
1
L
2
. Conclumos que la
interseccion de dos subespacios es un subespacio.
Denicion 4.6 Sean L
1
, L
2
subespacios de V . Llamaremos suma de L
1
y L
2
a
L = c : c =a +

b, a L
1
,

b L
2

Claramente

0 =

0 +

0 luego L ,= .
Si c L, hay a L
1
,

b L
2
tales que c = a +

b. Pero a L
1
,

b L
2
, y por
denicion c = a +

b L.
Analogamente, si c
1
y c
2
L, hay a
1
, a
2
L
1
, y

b
1
,

b
2
L
2
tales que c
1
= a
1
+

b
1
,
c
2
=a
2
+

b
2
, entonces
c
1
+c
2
= (a
1
+a
2
) + (

b
1
+

b
2
) ,
a
1
+a
2
L
1
,

b
1
+

b
2
L
2
luego c
1
+c
2
L.
Se concluye que L es un subespacio en V llamado el subespacio suma de L
1
y L
2
, y se
denota por L = L
1
+L
2
.
Teorema 4.7 Sean L
1
y L
2
subespacios de V , dimL
1
= p
1
, dimL
2
= p
2
. Sea D =
L
1
L
2
, dimD = d. Sea S = L
1
+L
2
, dimS = s. Entonces p
1
+p
2
= d +s.
Demostracion: Sea a
1
, a
2
, . . . , a
d
una base de D. Extendemos esta base a una base
de L
1
agregando vectores

b
1
,

b
2
, . . . ,

b
q
donde q = p
1
d, y tambien la extendemos a
una base de L
2
agregando c
1
, c
2
, . . . , c
r
donde r = p
2
d.
Si a
1
L
1
entonces
a
1
=
d

i=1

i
a
i
+
q

i=1

b
i
y si a
2
L
2
entonces
a
2
=
d

i=1

i
a
i
+
r

i=1

i
c
i
Puesto que todo vector de S es de la forma a
1
+a
2
, todo vector de S es una combi-
nacion lineal del conjunto de vectores a
1
, a
2
, . . . , a
d
,

b
1
,

b
2
, . . . ,

b
q
, c
1
, c
2
, . . . , c
r
.
Queremos demostrar que esta coleccion es l.i. Supongamos que
d

i=1

i
a
i
+
q

i=1

b
i
+
r

i=1

i
c
i
=

0
4.2. SUBESPACIOS DE VECTORES EN R
N
69
Entonces
r

i=1

i
c
i
L
1
y como
r

i=1

i
c
i
L
2
se tiene que
r

i=1

i
c
i
D y por lo tanto
r

i=1

i
c
i
=
d

i=1

i
a
i
. Por construccion la coleccion a
1
, a
2
, . . . , a
d
, c
1
, c
2
, . . . , c
r
es l.i.
luego
i
= 0, i = 1, 2, . . . , r y
i
= 0, i = 1, 2, . . . , d y por lo tanto
d

i=1

i
a
i
+
q

i=1

b
i
=

0
Por identicas razones
i
= 0, i = 1, 2, . . . , d y
i
= 0, i = 1, 2, . . . , q. Se concluye que la
coleccion a
1
, a
2
, . . . , a
d
,

b
1
,

b
2
, . . . ,

b
q
, c
1
, c
2
, . . . , c
r
es l.i. y genera a S, por denicion
dimS = s = d +q +r = d +p
1
d +p
2
d .
Nota: Es claro que para cada natural n hay un R
n
y por lo tanto un V . Para n = 2,
V es lo que llamamos los vectores geometricos en el plano y para n = 3, V es lo
que llamamos los vectores geometricos en el espacio. De ahora en adelante a V lo
designaremos por V
n
.
Ejemplo: En V
4
sean
a
1
= 3, 1, 1, 2
a
2
= 4, 1, 2, 3
a
3
= 10, 3, 0, 7
a
4
= 1, 1, 7, 0
Sea L
1
el subespacio generado por a
1
, a
2
, a
3
, a
4
. Sean

b
1
= 2, 4, 3, 7

b
2
= 5, 2, 2, 1
Sea L
2
el subespacio generado por

b
1
,

b
2
. Encontrar las dimensiones de L
1
, L
2
, L
1
L
2
,
L
1
+L
2
.
Consideremos el sistema de vectores a
1
, a
2
, a
3
, a
4
y supongamos que a
1
+ a
2
+
a
3
+a
4
=

0, entonces
3 + 4 + 10 = 0
3 + = 0
2 7 = 0
2 + 3 + 7 = 0
Sea
A =
_
_
_
_
3 4 10 1
1 1 3 1
1 2 0 7
2 3 7 0
_
_
_
_
70 CAP

ITULO 4. VECTORES EN R
N
la matriz del sistema. Puesto que la cuarta la es suma de las dos primeras ella tiene
el mismo rango que
A
1
=
_
_
_
_
3 4 10 1
1 1 3 1
1 2 0 7
0 0 0 0
_
_
_
_
la cual tiene el mismo rango que
A
2
=
_
_
_
_
0 1 1 2
1 1 3 1
0 3 3 6
0 0 0 0
_
_
_
_
la cual tiene rango 2, luego rango A = 2 y como

3 4
1 1

,= 0 las dos primeras


columnas de A son l.i.
Se concluye que a
1
, a
2
es un sistema linealmente independiente maximal de la colec-
cion a
1
, a
2
, a
3
, a
4
, dimL
1
= 2.
Supongamos que

b
1
+b
2
=

0
2 + 5 = 0
4 + 2 = 0
3 + 2 = 0
7 = 0
Sumando las tres ultimas se tiene que necesariamente = 0 luego el sistema tiene solo
la solucion trivial, dimL
2
= 2.
Todo vector de L
1
es de la forma a
1
+a
2
, todo vector de L
2
es de la forma

b
1
+

b
2
.
Se concluye que S = L
1
+L
2
es el subespacio generado por a
1
, a
2
,

b
1
,

b
2
. Supongamos
que
a
1
+a
2
+

b
1
+

b
2
=

0
La matriz del sistema es
A =
_
_
_
_
3 4 2 5
1 1 4 2
1 2 3 2
2 3 7 1
_
_
_
_
la cual tiene el mismo rango que
A
1
=
_
_
_
_
0 1 10 11
1 1 4 2
0 3 7 4
0 1 1 3
_
_
_
_
la cual tiene el mismo rango que
A
2
=
_
_
_
_
1 1 4 2
0 1 10 11
0 3 7 4
0 1 1 3
_
_
_
_
4.3. VARIEDADES LINEALES 71
y esta a su vez el mismo rango que
A
3
=
_
_
_
_
1 1 4 2
0 1 10 11
0 0 37 37
0 0 9 8
_
_
_
_
y que
A
4
=
_
_
_
_
1 1 4 2
0 1 10 11
0 0 1 1
0 0 9 8
_
_
_
_
y que
A
5
=
_
_
_
_
1 1 4 2
0 1 10 11
0 0 1 1
0 0 0 1
_
_
_
_
y trabajando por columnas
A
6
=
_
_
_
_
1 1 2 2
0 1 1 11
0 0 0 1
0 0 1 1
_
_
_
_
, A
7
=
_
_
_
_
1 1 2 2
0 1 1 11
0 0 1 1
0 0 0 1
_
_
_
_
El determinante de A
7
es
det A
7
=

1 1 11
0 1 1
0 0 1

1 1
0 1

= 1
luego rango A = 4 luego la dimension de S es igual a 4.
Se concluye que como dimL
1
+ dimL
2
= dimL
1
L
2
+ dimL
1
+ L
2
entonces la
dimension de L
1
L
2
es 0.
4.3. Variedades lineales
Habamos denido la recta por los puntos P = (x
1
, x
2
, . . . , x
n
), Q = (y
1
, y
2
, . . . , y
n
) de
R
n
como el conjunto de los puntos (z
1
, z
2
, . . . , z
n
) R
n
tales que
z
i
= x
i
+(y
i
x
i
) i = 1, 2, . . . , n , < < .
Sea a =

PQ = y
1
x
1
, y
2
x
2
, . . . , y
n
x
n
, entonces a V
n
. Llamaremos R =
(z
1
, z
2
, . . . , z
n
). De la denicion de recta y de la denicion de igualdad de vectores
tenemos que

PR =

PQ.
Como para cada valor de obtenemos un punto R de la recta, obtenemos el punto R
correspondiente al valor copiando al vector

PQ con punto inicial P. Pero la to-


talidad de los vectores a es un subespacio de L de V
n
de dimension 1, luego podemos
pensar la recta como la totalidad de los puntos R obtenidos de copiar o aplicar el
72 CAP

ITULO 4. VECTORES EN R
N
subespacio L a partir de P. Es motiva la siguiente denicion:
Llamaremos variedad lineal de dimension p a la totalidad de los puntos R R
n
obtenidos de copiar los vectores de un subespacio L de V
n
a partir de un punto jo
P R
n
. Decimos que los puntos R de la variedad se obtienen aplicando el subespa-
cio L en P. En otras palabras, los puntos R de la variedad son los extremos nales de
los vectores de L representados como segmentos dirigidos cuyo punto inicial es P.
Ejemplo: Sea L un subespacio de dimension 2 de V
3
, donde interpretamos R
3
como
el espacio fsico ordinario. Sea a,

b una base de L, sea P un punto jo del espacio.
Copiamos a y

b con punto inicial P, sean Q y R sus puntos nales respectivamente.
Como a y

b son l.i., P, Q, R determinan un plano en el espacio. Armamos que
la variedad lineal de dimension 2 obtenida de aplicar L en P es el plano del espa-
cio fsico ordinario. En efecto, el punto S obtenido de aplicar a en P esta en y
Q
S
P
T R
Z
analogamente el punto T obtenido de aplicar

b en P tambien esta en . Puesto que un


vector arbitrario de L es de la forma a +

b,
sea Z el punto obtenido de aplicar a +

b en
P. Por denicion de suma de vectores, para
obtener a +

b copiamos arbitrariamente a
a partir de P y luego copiamos

b a partir de
S (o podemos aplicar

b en P y luego a en
T), es claro que Z . A la inversa, dado Z , trazando paralelas por Z a a y

b
podemos encontrar S y T (o sea y ) luego todo punto Z puede ser encontrado
por este metodo.
Nota: Una variedad lineal de dimension 0 se obtiene aplicando L =

0 en P, o
sea es simplemente un punto. Una variedad lineal de dimension 1 es una recta, una
variedad lineal de dimension 2 es un plano, una variedad lineal de dimension n 1 es
un hiperplano. Todos los puntos de una variedad lineal son equivalentes en el siguiente
sentido: si tomamos otro punto Q de la variedad y aplicamos L en Q obtenemos la
misma variedad, en efecto, sea Q otro punto de la variedad, sea Z un punto arbitrario
de ella. Entonces hay z L tal que z =

PZ. Tambien hay q L tal que q =

PQ. Pero

PQ +

QZ =

PZ luego q +

QZ = z,

QZ = z q. Pero z q L luego Z se obtiene
aplicando z q en Q.
Nota: En R
n
consideremos el punto O = (0, 0, . . . , 0). Si P = (x
1
, x
2
, . . . , x
n
) es otro
punto cualquiera de R
n
, podemos obtener P aplicando el vector x
1
, x
2
, . . . , x
n
de
V
n
en O. Como V
n
es un subespacio de s mismo, podemos concluir que R
n
es una
variedad lineal de dimension n.
Sea M la variedad lineal obtenida aplicando el subespacio L de dimension p > 0. Sea
P
0
M, sea a
1
, a
2
, . . . , a
p
una base de L. Sea P M, entonces

P
0
P L y hay
n umeros reales y
1
, y
2
, . . . , y
p
tales que

P
0
P =
p

i=1
y
i
a
i
.
Es claro que como

P
0
P tiene una unica expresion en la base a
1
, a
2
, . . . , a
p
, el juego
de n umeros reales y
1
, y
2
, . . . , y
p
es unico.
4.3. VARIEDADES LINEALES 73
Denicion 4.8 Diremos que el punto P
0
y la base a
1
, a
2
, . . . , a
p
de L constituyen un
sistema afn de coordenadas en M cuyo origen es P
0
y tal que las direcciones de los
ejes coordenados estan dadas por a
1
, a
2
, . . . , a
p
. Lo anotaremos por (P
0
, a
1
, a
2
, . . . , a
p
).
Diremos que el juego de n umeros y
1
, y
2
, . . . , y
p
son las coordenadas del punto P M
con respecto al sistema de coordenadas (P
0
, a
1
, a
2
, . . . , a
p
).
Es as como cada punto P M puede ser representado por una p-tupla (y
1
, y
2
, . . . , y
p
)
de n umeros reales y es claro que dado el sistema de coordenadas la correspondencia
entre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P
0
, o la base de L
o ambos, el mismo punto P M esta representado por otra p-tupla de n umeros reales.
Teorema 4.9 Sean P
0
, P
1
, . . . , P
p
puntos en R
n
tales que ellos no estan todos en
ninguna variedad lineal de dimension menor que p. Entonces existe una unica variedad
lineal M de dimension p que los contiene.
Demostracion: Sean P
k
= (x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
), k = 0, 1, . . . , p, tales que no estan
todos en ninguna variedad lineal de dimension menor que p. Sean
k
=

P
0
P, k =
1, 2, . . . , p. Si ellos fuesen l.d. el subespacio L generado por ellos tendra dimension
menor que p. Al aplicar L en P
0
obtendramos una variedad lineal M de dimension
menor que p que los contiene a todos, luego ellos son l.i. y por lo tanto el subespacio
L generado por ellos tiene dimension p.
Al aplicar L en P
0
obtenemos una variedad lineal M de dimension p que contiene a
P
0
, P
1
, . . . , P
p
. Sea M

otra variedad lineal de dimension p que los contiene a todos.


Entonces ella se obtiene aplicando un cierto subespacio L

de dimension p en cualquiera
de sus puntos, por ejemplo P
0
. Se concluye que
1
,
2
, . . . ,
k
pertenecen a L

, como
ellos son l.i. y dimL

= dimL = p entonces L = L

y por lo tanto M = M

.
Diremos que M es la variedad lineal determinada por los p +1 puntos P
0
, P
1
, . . . , P
p
.
Sea P = (x
1
, x
2
, . . . , x
n
) un punto arbitrario de ella. Entonces

P
0
P =
p

k=1

k

k
= x
1
x
(0)
1
, x
2
x
(0)
2
, . . . , x
n
x
(0)
n
y

k
= x
(k)
1
x
(0)
1
, x
(k)
2
x
(0)
2
, . . . , x
(k)
n
x
(0)
n
k = 1, 2, . . . , p
luego
x
1
x
(0)
1
, x
2
x
(0)
2
, . . . , x
n
x
(0)
n
=
p

k=1

k
x
(k)
1
x
(0)
1
, x
(k)
2
x
(0)
2
, . . . , x
(k)
n
x
(0)
n

=
_
p

k=1

k
(x
(k)
1
x
(0)
1
), . . . ,
p

k=1

k
(x
(k)
n
x
(0)
n
)
_
Aplicando la denicion de igualdad de vectores se tiene que
x
i
x
(0)
i
=
p

k=1

k
(x
(k)
i
x
(0)
i
) i = 1, 2, . . . , n
x
i
=
p

k=1

k
x
(k)
i
+x
(0)
i
_
1
p

k=1

k
_
74 CAP

ITULO 4. VECTORES EN R
N
Llamamos
0
= 1
n

k=1

k
entonces
p

k=0

k
= 1 y
x
i
=
p

k=0

k
x
(k)
i
i = 1, 2, . . . , n (4.2)
Si P M, existen n umeros reales
0
,
1
, . . . ,
p
tales que
p

k=0

k
= 1 y las coordenadas
de P pueden ser representadas en la forma (4.2). Como la expresion del vector

P
0
P
en la base
1
,
2
, . . . ,
p
es unica, el juego
0
,
1
, . . . ,
p
es unico.
A la inversa, dados
0
,
1
, . . . ,
p
tales que
p

k=0

k
= 1, entonces el punto P cuyas
coordenadas estan dadas por (4.2) esta en la variedad M porque el punto determinado
por

P
0
P =
p

k=0

k

k
esta en M.
Se concluye que los puntos de M estan determinados por (4.2) de modo que a cada
juego de n umeros
0
,
1
, . . . ,
p
tales que
p

k=0

k
= 1 le corresponde exactamente un
punto de M.
Nota: Sean M y M

dos variedades lineales en R


n
, sean L y L

subespacios que las


generan. Sea D = MM

. Si D ,= , sea P
0
D. Si D = P
0
entonces necesariamente
L L

0. Supongamos que L L

y ,=

0, entonces L y el punto P tal
que

P
0
P = esta en M, por razon analoga esta en M

luego P D. A la inversa,
supongamos que D tiene mas de un punto, sea P D,

P
0
P LL

luego el punto P
se obtiene aplicando un vector de L L

en P
0
. Entonces D = M M

es la variedad
lineal obtenida aplicando el subespacio LL

en un punto cualquiera de la interseccion.


Denicion 4.10 Sean M y M

dos variedades lineales, sean L y L

dos subespacios
que las generan. Diremos que M y M

son mutuamente paralelas si L L

o bien
L

L.
Teorema 4.11 Sean M y M

variedades lineales mutuamente paralelas. Entonces M


M

= o bien M M

o M

M.
Demostracion: Supongamos que MM

,= , sea L L

, entonces LL

= L luego
M M

es la variedad lineal obtenida aplicando L en un punto de la interseccion.


Como todos los puntos de M son equivalentes, M M

= M luego M M

.
Ejemplo: Demuestre que tres vectores en V
3
son l.d. si y solo si ellos son paralelos
a un mismo plano.
4.3. VARIEDADES LINEALES 75
Sean ,

, V
3
, sea M un plano en R
3
generado por el subespacio L de dimension
dos aplicado en un punto P
0
R
3
. Diremos que es paralelo al plano M si para alg un
P M se tiene

P
0
P = . Supongamos que ,

, son paralelos a M. Entonces hay
P, Q, R M tales que =

P
0
P,

=

P
0
Q, =

P
0
R. Si ,

, son l.i. entonces M
tiene dimension tres, luego ,

, son l.d.
Sean ,

, vectores en V
3
, sean ellos l.d. Entonces hay , , no todos nulos tales
que
+

+ =

0 .
Supongamos que ,= 0 entonces =

.
Caso 1: Si =

, sea P
0
R
3
arbitrario. Sea P R
3
tal que

P
0
P =

. Sea Q
tal que

P
0
P,

P
0
Q son l.i. Entonces P
0
, P, Q determinan un plano M. Sea R tal que

P
0
R =

. R esta en M, entonces

, son paralelos a M. Por otro lado es de la
forma = , en forma analoga a , tambien es paralelo a M.
Caso 2: Si

y son l.i., sea P
0
R
3
arbitrario, sea L el subespacio generado por

y
. Sea M el plano obtenido de aplicar L en P
0
. Como es combinacion lineal de

y
, L, luego ,

, son paralelos a M.
Ejemplo: Sea M una variedad lineal en R
n
, sean P, Q puntos de M. Demuestre que
la recta por P y Q esta contenida en M. A la inversa, sea M tal que si R y S pertenecen
a M, la recta por R y S esta contenida en M. Demuestre que M es una variedad lineal.
Sea P = (x
1
, x
2
, . . . , x
n
), sea Q = (y
1
, y
2
, . . . , y
n
), sea L el subespacio que genera a M.
Un punto R esta sobre la recta si y solo si

PR =

PQ para alg un . Supongamos que


M se genera aplicando L en M, por hipotesis

PQ L luego

PQ L, por denicion,
R M.
A la inversa, sea M R
n
con esta propiedad, sea P
0
M. Sea L el conjunto de los
vectores de V
n
tales que de su aplicacion en P
0
se obtienen puntos en M, esto es,
L = V
n
: =

P
0
P, P M
L es no vaco pues

0 =

P
0
P
0
L. Sea L, sea un n umero cualquiera. Sea P M
tal que =

P
0
P. El punto que resulta de aplicar en P
0
esta en la recta por P
0
y
P, luego por hipotesis esta en M. Por lo tanto L.
Sean ,

L, sean P, Q M tales que =

P
0
P,

=

P
0
Q. Sea = +

una
combinacion lineal de ellos dos. Si ,

son l.d., puede expresarse como combinacion
lineal de solo uno de ellos y ya se demostro que en tal caso esta en L. Supongamos
entonces que son l.i. Consideremos dos casos.
Caso 1: Si es de la forma = (

) sea R el punto dado por

P
0
R =

P
0
Q.
Puesto que R esta en la recta por Q y por P
0
, R esta en M. Sea S el punto dado
por

PS =
1
2

PR, punto que esta en la recta por P y R y que por lo tanto esta en M.
Finalmente sea T tal que

P
0
T = 2

P
0
S. T esta en la recta que une P
0
con S luego
esta en M, y ademas

P
0
T = 2(

P
0
P +

PS) = 2(
1
2

P
0
P +
1
2
(

P
0
P +

PR)) = ( +

P
0
R) = (

) =
76 CAP

ITULO 4. VECTORES EN R
N
luego L.
Caso 2: El caso + = 0 es el caso anterior, luego supongamos que + ,= 0. Sea R
un punto en la recta que une a P con Q dado por

PR =

+

PQ.
Sea S en la recta por P
0
y R dado por

P
0
S = ( +)

P
0
R. S M y

P
0
S = ( +)

P
0
P +

+
(

PP
0
+

P
0
Q)
= ( +) +
= +

=
luego L.
Por lo tanto, L es un subespacio de V
n
y M es una variedad lineal de R
n
.
Ejemplo: Sea M una variedad lineal en R
n
de dimension menor que n, sea P
0
un
punto fuera de M. Sea N el conjunto de los puntos de R
n
que estan sobre alguna recta
que une un punto de M con P
0
. ? Es N una variedad lineal?
Sea p = dimM, p < n. Si p = 0 M consiste de un solo punto y por lo tanto N es la
recta que une ese punto con P
0
, luego N es una variedad lineal.
No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es una
variedad lineal, sea L el subespacio que genera a M, L

el subespacio que genera a


N. Sea R
0
un punto arbitrario de M, podemos pensar en M como la variedad que
resulta de aplicar L en R
0
. Como p > 0 es posible encontrar un punto R M, tal que
R ,= R
0
. Hay entonces un vector

L tal que

=

R
0
R. Claramente M N luego
=

P
0
R
0
y

P
0
R = +

estan en L

. Sea S un punto en M dado por



R
0
S =

, y
sea T dado por

P
0
T =

P
0
S = (

P
0
R
0
+

R
0
S) = +

T esta en la recta que pasa por P


0
y S luego T N, entonces +

L

. Como
+

esta tambien en L

se tiene que 2

, esto es, el punto Q dado por



P
0
Q = 2

esta en N. Luego Q esta en la recta que une a P con un punto Z M y como R


0
,= R
necesariamente ,= 0, por lo tanto, para alg un real se tiene que

P
0
Z =

P
0
Q. Pero
en tal caso se tiene que

R
0
P
0
=

R
0
Z +

ZP
0
=

R
0
Z 2 L
luego P
0
M y esto no puede ser.
Sea N

el conjunto que resulta de unir N con la variedad lineal que resulta de aplicar
L en P
0
. N

, a diferencia de N, s es una variedad lineal. En efecto, sea


1
,
2
, . . . ,
p
una base de L, sea
0
=

P
0
R
0
. Por hipotesis
0
/ L luego
0
,
1
,
2
, . . . ,
p
son l.i.
Si Q N hay R M tal que Q esta sobre la recta que une P
0
con R y por lo tanto,
para alg un real se tiene que

P
0
Q =

P
0
R. Pero

P
0
R
0
+

R
0
R =

P
0
R. Como

R
0
R =
p

i=1
a
i

i
,

P
0
Q =
_

0
+
p

i=1
a
i

i
_
4.3. VARIEDADES LINEALES 77
luego

P
0
Q =
p

i=0
b
i

i
. Sea L

el subespacio de dimension p + 1 generado por


0
,
1
,

2
, . . . ,
p
. Entonces Q se obtiene aplicando un vector de L

en P
0
.
A la inversa, sea

=
p

i=0
b
i

i
un vector cualquiera de L

, apliquemos

en P
0
y sea
Q R
n
tal que

=

P
0
Q. Consideremos la recta por P
0
y Q. Sea R un punto arbitrario
de dicha recta, entonces

P
0
R =

=

P
0
R
0
+

R
0
R luego

R
0
R =
p

i=0
b
i

i

0
= (b
0
1)
0
+
p

i=1
b
i

i
.
Si b
0
= 0,

L, luego Q esta en la variedad que resulta de copiar L en P
0
y por lo
tanto esta en N

. Si b
0
,= 0, para =
1
b
0
se tiene que R M luego Q N.
Ejemplo: Sea M una variedad lineal en R
n
de dimension menor que n, sea P
0
un
punto fuera de M, sea un real jo. Sea N R
n
tal que S N si y solo si hay
Q M tal que

P
0
S =

P
0
Q. Es N una variedad lineal?
Si = 0 N consiste en el punto P
0
y por ende es una variedad lineal. Supongamos
entonces que ,= 0.
Sea S
0
un punto jo de N, S un punto arbitrario de n. Sean Q
0
, Q M tales que

P
0
S
0
=

P
0
Q
0
,

P
0
S =

P
0
Q. Sea L el subespacio que genera a M. Entonces

P
0
S

P
0
S
0
= (

P
0
Q

P
0
Q
0
)
luego

S
0
S =

Q
0
Q. Pero

Q
0
Q L luego S se obtiene aplicando un vector de L en S
0
.
A la inversa, sea L, queremos demostrar que al aplicar en S
0
obtenemos un
punto S N. En efecto, si Q es el punto que resulta de copiar
1

en Q
0
(punto que
esta en M) tenemos que

P
0
Q = (

P
0
Q
0
+

Q
0
Q) =

P
0
S
0
+
luego

P
0
S =

P
0
Q y S N.
Entonces N es una variedad lineal paralela a M obtenida de aplicar L en S
0
.
Ejemplo: Sean L
1
y L
2
rectas distintas en R
n
. Sean P y Q puntos arbitrarios de L
1
y L
2
respectivamente. Sea L la recta por P y Q. Considere la union M de todas las
rectas L (consideradas como conjuntos de puntos en R
n
). Es M una variedad lineal?
Caso 1: L
1
L
2
,= . Sea la direccion de L
1
y

la direccion de L
2
. Supongamos que
hay mas de un punto en la interseccion, por ejemplo O
1
y O
2
. Entonces hay
1
,
2
,

1
y
2
tales que

P
0
O
1
=
1


P
0
O
2
=
2


O
1
O
2
= (
2

1
)

Q
0
O
1
=
1


Q
0
O
2
=
2


O
1
O
2
= (
2

1
)

78 CAP

ITULO 4. VECTORES EN R
N
Pero ,

son l.i. entonces
1
=
2
,
1
=
2
, luego no puede haber mas que un punto
en L
1
L
2
.
Sea entonces O el punto de interseccion de L
1
y L
2
. Sea R M, entonces para alg un
P L
1
y alg un Q L
2
se tiene

PR = r

PQ. Como P L
1
y Q L
2
hay y tales
que

OP = y

OQ =

, entonces

OR =

OP +

PR = +r

PQ

OR +r

OP = +r

OP +r

PQ = +r

OR = r +r

= (1 r) +r

Sea H el subespacio generado por y



. Entonces R se obtiene aplicando un vector
de H en O.
A la inversa, sea = +

y apliquemos en O. Sea R tal que



OR = . Si = 0,
R = O y entonces R M (O pertenece a la recta que lo une con alg un punto de L
1
distinto de el, considerando O como punto de L
2
). Si = 0 pero ,= 0, R mismo
esta en L
1
, y esta en la recta que lo une con O, lo cual demuestra que R M (con-
siderando O como punto de L
2
).
Si ,= 0 sea P L
1
, P ,= O, y tal que

OP ,= . Hay
p
tal que

OP =
p
. Si Z es
un punto arbitrario de la recta que pasa por P y R se tiene que

OZ =

OP +

PZ = +t

PR = +t(
p
) = +t[ +


p
]
Z L
2
si y solo si +t(
p
) = 0 luego hay un unico Z
0
en la recta por P y R que
esta sobre L
2
. Se concluye que R esta sobre la recta por P y Z
0
, esto es, R M. Por
lo tanto, M es la variedad lineal obtenida aplicando H en O.
Caso 2: L
1
y L
2
son paralelas, =

. Sean O
1
L
1
, O
2
L
2
puntos jos de L
1
y L
2
respectivamente. Sea =

O
1
O
2
, sea P L
1
, Q L
2
, sea R un punto cualquiera de la
recta por P y Q. Entonces

PR = r

PQ. Ademas

O
1
P = y

O
2
Q = para alg un
par de valores de y . Entonces + = +

PQ luego

PQ = +() y como

O
1
P +

PR =

O
1
R se tiene que +r

PQ =

O
1
R,

O
1
R = +r + ( ) ,
si H es el subespacio generado por y , R se obtiene aplicando un vector de H en O
1
.
Analogamente al primer caso, al aplicar un vector H en O
1
obtenemos un punto
de M. M es la variedad lineal obtenida de aplicar H en O
1
.
Caso 3: L
1
y L
2
se cruzan. Si M fuese una variedad de dimension dos, ella es un
plano que contiene a L
1
y L
2
. Entonces L
1
y L
2
seran coplanares y no paralelos luego
tendran un punto com un, as que M no puede ser una variedad de dimension dos. Sea
la direccion de L
1
,

la de L
2
. Sea O
1
L
1
, sea O
2
L
2
, sea =

O
1
O
2
. Entonces ,

, son l.i. Sea H el subespacio generado por ,



, . Si copiamos H a partir de O
1
generamos una variedad lineal M

y podemos vericar tal como en el segundo caso que


M M

. Pero los puntos que estan sobre un plano por L


1
y paralelo a L
2
claramente
estan en M

pero no en M luego M ,= M

. Pero cualquier variedad de dimension tres


4.4. SUBESPACIOS DE SOLUCIONES 79
que contenga a M debe tener un subespacio generador que contenga a ,

y luego
ella necesariamente debe ser M

. Si M M

y M ,= M

ella no puede tener dimension


tres. Es obvio que M no puede tener dimension mayor que tres porque M M

. Se
concluye que M no es una variedad lineal.
4.4. Subespacios de soluciones
Consideremos un sistema homogeneo de s ecuaciones lineales con n incognitas, sea r el
rango de la matriz del sistema. Entonces sus soluciones constituyen un subespacio de
V
n
. Puesto que hay n r soluciones fundamentales ellas son una base del subespacio
el cual tiene entonces dimension n r.
Puesto que las soluciones de un sistema no homogeneo se obtienen sumando a una
solucion dada del sistema todas las soluciones del correspondiente sistema homogeneo,
podemos reeinterpretar este resultado en lenguaje geometrico de la siguiente manera:
Sea (x
1
, x
2
, . . . , x
n
) una solucion del sistema no homogeneo. La interpretaremos como
un punto P R
n
. Sea = y
1
, y
2
, . . . , y
n
una solucion del correspondiente sistema
homogeneo, sabemos que hay Q R
n
tal que =

PQ. Si O R
n
esta dado por
O = (0, 0, . . . , 0) entonces

OP = x
1
, x
2
, . . . , x
n
es una solucion vectorial del sistema.
Pero

OP +

PQ =

OQ = x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
,
luego el punto Q = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
) es una solucion del sistema no
homogeneo. Se concluye lo siguiente:
Sea L el subespacio de soluciones del correspondiente sistema homogeneo, sea M R
n
formado por todas las soluciones del sistema no homogeneo. Si P M, aplicando un
vector L en P obtenemos un punto Q M.
A la inversa, sea Q = (z
1
, z
2
, . . . , z
n
) M, si

= z
1
, z
2
, . . . , z
n
, = x
1
, x
2
, . . . , x
n

entonces

= z
1
x
1
, z
2
x
2
, . . . , z
n
x
n
L.
Pero + (

) =

OQ y

=

PQ luego el punto Q M se obtiene aplicando

en P.
M es la variedad lineal de dimension n r obtenida aplicando L en una solucion
P R
n
arbitraria del sistema no homogeneo.
Teorema 4.12 Sea L un subespacio de V
n
. Entonces existe un sistema lineal ho-
mogeneo con n incognitas tal que L es su espacio de soluciones.
Demostracion: Sea p = dimL. Sea
i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , p una base
de L, sea x = x
1
, x
2
, . . . , x
n
. Considere el sistema

i
x =
n

j=1
a
ij
x
i
= 0 i = 1, 2, . . . , p (4.3)
80 CAP

ITULO 4. VECTORES EN R
N
La matriz de (4.3) tiene rango p. Sea
p

j=1

j

j
L, sea x una solucion de (4.3).
Entonces
x
p

j=1

j

j
=
p

j=1

j
(x
j
) = 0 ,
si x es solucion de (4.3) entonces x es ortogonal a todos los vectores de L. A la inversa,
si x es ortogonal a todos los vectores de L, x es solucion de (4.3).
Notese que si x
1
, x
2
son ortogonales a L, x
1
+ x
2
es ortogonal a L luego L

, el
conjunto de los vectores de V
n
que son ortogonales a L es un subespacio de V
n
, que
coincide con el espacio de soluciones de (4.3) luego dimL

= n p.
Busquemos los vectores ortogonales a L

. Sea

i
, i = 1, 2, . . . , np una base de L

. Un
vector y = y
1
, y
2
, . . . , y
n
es ortogonal a L

si y solo si

i
y
i
= 0 i = 1, 2, . . . , n p (4.4)
Pero

1
,

2
, . . . ,

np
son en particular ortogonales a
1
,
2
, . . . ,
p
luego

1

i
= 0 ,

2

i
= 0 , . . . ,

np

i
= 0 i = 1, 2, . . . , p
(4.4) es un sistema homogeneo cuyas soluciones son todos los vectores ortogonales a
L

luego su espacio de soluciones tiene dimension p. Como


1
,
2
, . . . ,
p
son l.i. y
estan en dicho espacio de soluciones, tal espacio de soluciones es precisamente L.
Para resumir: Sea L un subespacio de V
n
de dimension p, sea L

el subespacio de V
n
que consta de todos los vectores ortogonales a L. L

tiene dimension n p. Si

1
,

2
,
. . . ,

np
es una base de L

vemos que el sistema

i
y = 0 i = 1, 2, . . . , n p , y = y
1
, y
2
, . . . , y
n

tiene como espacio de soluciones a L.


Teorema 4.13 Sea M una variedad lineal en R
n
. Entonces existe un sistema lineal
con n incognitas tal que el conjunto de sus soluciones es M.
Demostracion: Sea L el subespacio que genera a M, sea p = dimL. Por el teorema
anterior, existe un sistema lineal homogeneo
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= 0
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= 0
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= 0
(4.5)
cuyo espacio de soluciones es L.
4.4. SUBESPACIOS DE SOLUCIONES 81
Supongamos que M se obtiene aplicando L en P = (
1
,
2
, . . . ,
n
). Denimos b
i
=
n

k=1
a
ik

k
, consideremos el sistema
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
(4.6)
Entonces las soluciones de (4.6) se obtienen aplicando el espacio de soluciones de (4.5)
en P. Notese que podemos encontrar un sistema (4.5) en que m = n p de modo que
(4.6) tenga exactamente n p ecuaciones.
82 CAP

ITULO 4. VECTORES EN R
N
Captulo 5
Consideraciones sobre
distancia y volumen en R
n
5.1. Metrica euclidiana
Denicion 5.1 Sean P = (x
1
, x
2
, . . . , x
n
), Q = (y
1
, y
2
, . . . , y
n
) puntos de R
n
. Lla-
maremos distancia entre P y Q a
PQ =
_
n

i=1
(y
i
x
i
)
2
_1
2
Es claro que PQ 0 y que PQ = 0 sii P = Q.
Notacion: Si a R
n
adjuntamos esta notacion de distancia, al producto obtenido lo
llamaremos espacio euclidiano n-dimensional.
Denicion 5.2 Dada la recta por P y Q
z
i
= x
i
+(y
i
x
i
) i = 1, 2, . . . , n < <
llamaremos longitud del segmento PQ (0 1) a la distancia entre P y Q.
Nota: Sea =

PQ = y
1
x
1
, y
2
x
2
, . . . , y
n
x
n
. La longitud del segmento dirigido

PQ que es una representacion posible de es PQ. Esto motiva la siguiente denicion:


Denicion 5.3 Sea = a
1
, a
2
, . . . , a
n
un vector de V
n
. Llamaremos longitud del
vector a
| | =
_
n

i=1
a
2
i
_1
2
,
| | se llama la norma de .
Notese que | | = 0 sii sus puntos extremos coinciden, esto es, | | = 0 sii =

0.
83
84 CAP

ITULO 5. DISTANCIA Y VOLUMEN EN R


N
Teorema 5.4 (Desigualdad de Cauchy-Schwarz) [

[ | ||

|
Demostracion: Supongamos primero que | | = |

| = 1. Como V
n
se tiene
| |
2
= 0, entonces
|

|
2
= (

) (

) = |

|
2
2

+| |
2
0
luego


1 (5.1)
Hay igualdad en (5.1) sii =

.
Sean ,

vectores arbitrarios distintos de

0, por (5.1)

| |

|
1 luego


| ||

| (5.2)
Es claro que (5.2) es verdadera si o

es

0, luego (5.2) es cierto para y



cualquiera.
En particular es cierta para y

luego
( )

| ||

| (

) | ||

|
Si y

son tales que [

[ = | ||

| entonces


| |

= 1. Si

| |

|
= 1
entonces

| |
=

|
, si

| |

|
= 1,
( )
| |

|
= 1 y

| |
=

|
. Hay
igualdad sii =
| |
|

.
Teorema 5.5 (Desigualdad triangular) Sean P, Q, R tres puntos cualesquiera en
el espacio euclidiano R
n
. Entonces
PR PQ+QR
Demostracion: Sean

PQ = ,

QR =

, entonces

PR =

PQ+

QR luego
PR
2
= | +

|
2
= ( +

) ( +

) = | |
2
+ 2

+|

|
2
| |
2
+ 2| ||

| +|

|
2
= (| | +|

|)
2
PR | | +|

| = PQ+QR
Nota: Hemos demostrado mas que eso, si ,

V
n
entonces
| +

| | | +|

|
Cuando se produce igualdad?
Supongamos que Qpertenece al segmento PR. Sea P = (x
1
, x
2
, . . . , x
n
), R = (z
1
, z
2
, . . . , z
n
).
Entonces Q = (y
1
, y
2
, . . . , y
n
) es tal que
y
i
= x
i
+(z
i
x
i
) i = 1, 2, . . . , n 0 1
5.2. VOL

UMENES Y DETERMINANTES 85
Pero
z
i
y
i
= z
i
x
i
(y
i
x
i
) = (1 )(z
i
x
i
) i = 1, 2, . . . , n
PQ+QR = [[
_
n

i=1
(z
i
x
i
)
2
_1
2
+[1 [
_
n

i=1
(z
i
x
i
)
2
_1
2
= PR
porque 0 1 entonces [[ = , [1 [ = 1 .
A la inversa, si hay igualdad y alguno entre

PQ y

QR es el vector cero, entonces P = Q


o Q = R y Q esta en el segmento. Supongamos entonces que

PQ ,=

0 y

QR ,=

0. Hay
igualdad si

PQ

QR = |

PQ||

QR| luego

PQ
|

PQ|
=

QR
|

QR|
luego

PQ =

QR, > 0,
y
i
x
i
= (z
i
y
i
) i = 1, 2, . . . , n
y
i
=
x
i
+z
i
1 +
i = 1, 2, . . . , n
y
i
= x
i
+

+ 1
(z
i
x
i
) 0 < =

+ 1
< 1 ,
Q esta en el interior del segmento PR.
Denicion 5.6 Sean ,

distintos de

0. Llamaremos angulo entre y

, se
designa por ( ,

), al angulo tal que 0 denido por
cos =

| ||

|
.
Nota: La desigualdad de Cauhy-Schwarz garantiza que la denicion es correcta.
Nota: Sean ,

distintos de cero. Entonces cos = 0 sii

= 0. Decimos que y

son ortogonales. En R
n
euclideo, los vectores e
i
de la base estandar son mutuamente
ortogonales.
5.2. Vol umenes y determinantes
A B
C D
E
F
P
Queremos describir el parelogramo ABCD analtica-
mente. Sea P un punto interior al paralelogramo o
bien sobre alguno de sus lados. Por P tracemos par-
alelas a AB y AD respectivamente, sean E, F los
puntos de interseccion en AB y AD respectivamente.

AP =

AE +

EP =

AE +

AF
Pero

AE =
1

AB 0
1
1

AF =
2

AD 0
2
1
86 CAP

ITULO 5. DISTANCIA Y VOLUMEN EN R


N
Luego

AP =
1

AB +
2

AD, 0
1
,
2
1.
A la inversa, si al aplicar el vector
1

AB +
2

AD en A para llevarlo al punto O, tal


punto P pertenece al paralelogramo si 0
1
,
2
1.
Sean
1
,
2
vectores l.i. en V
2
, sea A un punto jo en R
2
. Llamaremos paralelogramo
al conjunto de los puntos P R
2
en los cuales es transformado el punto A al aplicar
todos los vectores de la forma
1

1
+
2

2
, 0
1
,
2
1 en A. Diremos que
1
,
2
son los lados del paralelogramo.
Podemos realizar una construccion analoga en R
3
: Sean
1
,
2
,
3
vectores l.i. en
V
3
, sea A un punto jo de R
3
. Llamaremos paraleleppedo al conjunto de los puntos
P R
3
en los cuales es transformado el punto A al aplicar todos los vectores de la
forma
1

1
+
2

2
+
3

3
, 0
1
,
2
,
3
1 en A. Diremos que
1
,
2
,
3
son las
aristas del paraleleppedo.
Denicion 5.7 Sean
1
,
2
, . . . ,
n
vectores l.i. en V
n
, sea A un punto jo de R
n
.
Llamaremos paralelotopo n-dimensional al conjunto de los puntos P R
n
en los
cuales es transformado el punto A al aplicar todos los vectores de la forma
n

i=1

i

i
,
0
i
1, i = 1, 2, . . . , n en A. Diremos que
1
,
2
, . . . ,
n
son las aristas del
paralelotopo.
Nuestro objetivo es denir el volumen de un paralelotopo n-dimensional, para esto
revisamos las propiedades esenciales que la nocion tiene en dos y tres dimensiones.
En primer lugar, debe ser invariante a traslaciones; por denicion, el paralelogramo
y el paraleleppedo son generados trasladando el punto jo A mediante los vectores

1

1
+
2

2
,
1

1
+
2

2
+
3

3
. Pedir que el volumen del paralelotopo sea invari-
ante a traslaciones es, en otras palabras, que area y volumen deben ser independientes
de la eleccion del punto A. Si elegimos otro punto, digamos B, el paralelogramo (par-
aleleppedo) resultante debe tener la misma area (volumen). Paralelogramos que tienen
los mismos lados deben tener la misma area, paraleleppedos con las mismas aristas
deben tener el mismo volumen.
El volumen del paralelotopo n-dimensional debe ser solo una funcion de las aristas, lo
anotaremos como V (
1
,
2
, . . . ,
n
).
Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectores
de la base estandar le asignaremos el volumen 1, esto es
V (e
1
, e
2
, . . . , e
n
) = 1
En R
n
eucldeo, los vectores e
1
, e
2
, . . . , e
n
tienen longitud uno y aristas mutuamente
ortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma lon-
gitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.
Es claro que debemos exigir V (
1
,
2
, . . . ,
n
) 0.
Paralelogramos equivalentes (bases de igual longitud y misma altura) tienen la misma
area, paralelelpedos equivalentes (bases de igual area y misma altura) tienen el mismo
5.2. VOL

UMENES Y DETERMINANTES 87
volumen. Veamos el signicado de esto en terminos de las aristas:
A B
C D E
a
1
a
2
a
1
a
2
+
ABCD y ABEC son equivalentes. Los par-
alelogramos cuyas aristas son
1
,
2
y
1
,

1
+
2
tienen la misma area.
A B
C D
E
a
1
a
2
F
G H
K
L
a
3
a
3
a
1
+
Los paraleleppedos ABCDEFGH y
ABCDFKLG son equivalentes. Los par-
aleppedos cuyas aristas son
1
,
2
,
3
y
1
,

2
,
1
+
3
tienen el mismo volumen.
Puesto que estas combinaciones se pueden
hacer con cualquier par de aristas (cualquier
cara puede ser elegida como base) probaremos
lo siguiente:
V (
1
,
2
, . . . ,
i
, . . . ,
n
) = V (
1
,
2
, . . . ,
i
+
k
, . . . ,
n
)
donde k ,= i, 1 k n.
Si en un paralelotopo de aristas
1
,
2
, . . . ,
n
reemplazamos la arista
i
, 1 i n
por
i
+
k
, 1 k n, k ,= i, el nuevo paralelotopo de aristas
1
,
2
, . . . ,
i
+
k
,
. . . ,
n
tiene el mismo volumen que el original.
A
B
C
D
E F
a
1
a
2
a
2
l
Consideremos los paralelogramos ABCD y ABEF de aris-
tas
1
,
2
y
1
,
2
, real.
Area ABCD
Area ABEF
=
AD
AF
=
|
2
|
|
2
|
=
1
[[
Pedimos entonces que
V (
1
,
2
, . . . ,
i
, . . . ,
n
) = [[V (
1
,
2
, . . . ,
i
, . . . ,
n
)
Si en un paralelotopo de aristas
1
,
2
, . . . ,
n
reemplazamos la arista
i
por
i
el
volumen queda multiplicado por [[.
En resumen, deniremos el volumen de un paralelotopo n-dimensional de aristas
1
,

2
, . . . ,
n
como una funcion real V (
1
,
2
, . . . ,
n
) tal que
i.- V (
1
,
2
, . . . ,
n
) 0
ii.- V (
1
,
2
, . . . ,
i
, . . . ,
n
) = V (
1
,
2
, . . . ,
i
+
k
, . . . ,
n
) i ,= k
iii.- V (
1
,
2
, . . . ,
i
, . . . ,
n
) = [[V (
1
,
2
, . . . ,
n
)
iv.- V (e
1
, e
2
, . . . , e
n
) = 1
Queremos demostrar que tal funcion existe y es unica. Quitemos la restriccion de que
los vectores
1
,
2
, . . . ,
n
deben ser l.i. y permitamos que cualquier n-tupla de vec-
tores de V
n
pueda ser argumento de la funcion V (
1
,
2
, . . . ,
n
). Con este proposito
88 CAP

ITULO 5. DISTANCIA Y VOLUMEN EN R


N
introducimos una nueva funcion real D(
1
,
2
, . . . ,
n
) donde (
1
,
2
, . . . ,
n
) es una
n-tupla de vectores de V
n
(no necesariamente l.i) y que satisface las propiedades sigu-
ientes:
i.- D(
1
,
2
, . . . ,
i
, . . . ,
n
) = D(
1
,
2
, . . . ,
i
+
k
, . . . ,
n
) i ,= k
ii.- D(
1
,
2
, . . . ,
i
, . . . ,
n
) = D(
1
,
2
, . . . ,
i
, . . . ,
n
)
iii.- D(e
1
, e
2
, . . . , e
n
) = 1
Sean
i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , n, sea A a matriz de nn cuyas las son los
vectores
i
. No es difcil demostrar, usando i), ii) y iii) que D(
1
,
2
, . . . ,
n
) goza de
las mismas propiedades que las de las las (columnas) de det A, a saber:
i.- D(
1
,
2
, . . . ,
i
, . . . ,
n
) = D(
1
,
2
, . . . ,
i
+
k
, . . . ,
n
) i ,= k, real.
ii.- D(
1
,
2
, . . . ,
i
, . . . ,
n
) = D(
1
,
2
, . . . ,
i
+
n

k=1,k=i

k

k
, . . . ,
n
).
iii.- Si
i
= 0, 1 i n, D(
1
,
2
, . . . ,
n
) = 0.
iv.- Si
1
,
2
, . . . ,
n
son l.d., D(
1
,
2
, . . . ,
n
) = 0.
v.- D(
1
,
2
, . . . ,
i
, . . . ,
k
, . . . ,
n
) = D(
1
,
2
, . . . ,
k
, . . . ,
i
, . . . ,
n
).
vi.- D(

+,
2
, . . . ,
n
) = D(

,
2
, . . . ,
n
) +D(,
2
, . . . ,
n
).
vii.- Sea
i
=
r

k=1

k
i
, i = 1, 2, . . . , n
D(
1
,
2
, . . . ,
n
) =
r

1
,...,
n
=1
D(

1
1
,

2
2
,

3
3
, . . . ,

n
n
) .
viii.- Si
1
,
2
, . . . ,
n
son l.i., D(
1
,
2
, . . . ,
n
) ,= 0.
Tenemos que demostrar que existe una funcion que satisface las propiedades i), ii) y
iii) y que es unica. La demostracion se hace por induccion y no la entregaremos porque
excede el ambito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:
Si existe un funcion D(
1
,
2
, . . . ,
n
) que satisface i), ii), iii) ella debe tener una
cierta forma, luego se verica que la funcion de la forma obtenida satisface i), ii), iii)
lo cual prueba la existencia de D(
1
,
2
, . . . ,
n
). Finalmente, usando vii) y viii) se
obtiene una expresion explcita de D(
1
,
2
, . . . ,
n
) la cual coincide con la denicion
de det A. Entonces D(
1
,
2
, . . . ,
n
) = det A. A D(
1
,
2
, . . . ,
n
) la llamaremos fun-
cion determinante.
Esto ultimo prueba que si H(
1
,
2
, . . . ,
n
) es otra funcion que satisface i), ii), iii)
entonces ella tiene necesariamente la misma forma que D(
1
,
2
, . . . ,
n
) y como sa-
tisface las propiedades vii), viii), H(
1
,
2
, . . . ,
n
) = det A.
Denamos V (
1
,
2
, . . . ,
n
) = [D(
1
,
2
, . . . ,
n
)[.
5.2. VOL

UMENES Y DETERMINANTES 89
Es claro que se satisfacen las 4 propiedades que le exigimos al volumen. Queremos
demostrar que es la unica que las satisface.
Sea la funcion sgnD denida por
sgnD =
_
_
_
1 si D > 0
0 si D = 0
1 si D < 0
Consideremos V (
1
,
2
, . . . ,
n
)sgnD(
1
,
2
, . . . ,
n
). Queremos demostrar que ella
satisface las propiedades i), ii), iii) de la funcion determinante.
Ni V (
1
,
2
, . . . ,
n
) ni sgnD(
1
,
2
, . . . ,
n
) cambian cuando se reemplaza
i
por

i
+
k
luego satisface i).
Como (sgna)(sgnb) = sgn(ab), al reemplazar
i
por
i
la funcion queda multipli-
cada por [[sgn = luego satisface ii). Es claro que satisface iii). Entonces
V (
1
,
2
, . . . ,
n
)sgnD(
1
,
2
, . . . ,
n
) = D(
1
,
2
, . . . ,
n
)
Si D(
1
,
2
, . . . ,
n
) ,= 0,
V (
1
,
2
, . . . ,
n
)(sgnD(
1
,
2
, . . . ,
n
))
2
= sgnD(
1
,
2
, . . . ,
n
)D(
1
,
2
, . . . ,
n
)
= [D(
1
,
2
, . . . ,
n
)[ ,
luego observe que si D ,= 0, (sgnD)
2
= 1. Si D(
1
,
2
, . . . ,
n
) = 0, la propiedad
viii) de la funcion determinante nos permite concluir que los vectores
1
,
2
, . . . ,

n
son l.d., pero cualquier funcion que satisface las propiedades ii) y iii) de la fun-
cion determinante es 0 si los vectores
1
,
2
, . . . ,
n
son l.d. Como V (
1
,
2
, . . . ,
n
)
las satisface, V (
1
,
2
, . . . ,
n
) = 0 si los vectores
1
,
2
, . . . ,
n
son l.d. Entonces
[D(
1
,
2
, . . . ,
n
)[ es la unica funcion que satisface las propiedades i), ii), iii), iv)
exigidas al volumen.
Denicion 5.8 Denimos como volumen de un paralelotopo n-dimensional en R
n
eucldeo a
V (
1
,
2
, . . . ,
n
) = [D(
1
,
2
, . . . ,
n
)[
90 CAP

ITULO 5. DISTANCIA Y VOLUMEN EN R


N
Captulo 6
Sistemas de coordenadas
Recordemos la denicion (4.8). Sea M una variedad lineal, P
0
un punto de M y L el
subespacio que la genera, supongamos L tiene dimension p > 0. Si
1
,
2
, . . . ,
p
es
una base de L y P un punto arbitrario de M, podemos escribir (de manera unica)

P
0
P =
p

i=1
y
i

i
Decimos que y
1
, y
2
, . . . , y
p
son las coordenadas del punto P con respecto al sistema de
coordenadas [P
0
;
1
,
2
, . . . ,
p
]. Puesto que R
n
es una variedad lineal n-dimensional,
si

1
,

2
, . . . ,

n
es una base de V
n
y Q R
n
, para cada P R
n
podemos escribir
(de manera unica)

QP =
n

i=1
x

i
Decimos que x

1
, x

2
, . . . , x

n
son las coordenadas del punto P en el sistema de coorde-
nadas [Q;

1
,

2
, . . . ,

n
], el punto Q tiene coordenadas 0,0,. . . , 0.
Elijamos como origen el punto O = (0, 0, . . . , 0) y como base de V
n
la base estandar
e
1
, e
2
, . . . , e
n
. Sea P = (x
1
, x
2
, . . . , x
n
) un punto arbitrario de R
n
. Entonces

OP = x
1
0, x
2
0, . . . , x
n
0 = x
1
, x
2
, . . . , x
n

= x
1
1, 0, . . . , 0 +x
2
0, 1, . . . , 0 + +x
n
0, 0, . . . , 1
=
n

i=1
x
i
e
i
.
Con respecto al sistema de coordenadas [O; e
1
, e
2
, . . . , e
n
], las coordenadas de P coin-
ciden con los elementos de la n-tupla (x
1
, x
2
, . . . , x
n
).
Denicion 6.1 Sea [Q;

1
,

2
, . . . ,

n
] un sistema de coordenadas en R
n
, sea =
a
1
, a
2
, . . . , a
n
un vector de V
n
. Entonces =
n

i=1
a

i
(en forma unica). Dire-
mos que a

1
, a

2
, . . . , a

n
son las componentes de en el sistema de coordenadas
[Q;

1
,

2
, . . . ,

n
], o bien, las componentes del vector con respecto a la base

1
,

2
,
. . . ,

n
.
91
92 CAP

ITULO 6. SISTEMAS DE COORDENADAS


Es claro que las componentes del vector son independientes de la eleccion del origen
Q.
Notacion: De ahora en adelante escribiremos P = (x
1
, x
2
, . . . , x
n
) solo si x
1
, x
2
, . . . ,
x
n
son las coordenadas de P en [O; e
1
, e
2
, . . . , e
n
] y escribimos = a
1
, a
2
, . . . , a
n

solo si a
1
, a
2
, . . . , a
n
son las componentes de con respecto a la base e
1
, e
2
, . . . , e
n
.
Sea [Q;

1
,

2
, . . . ,

n
] un sistema de coordenadas en R
n
, sea P R
n
de coordenadas
x

1
, x

2
, . . . , x

n
, sea R R
n
de coordenadas y

1
, y

2
, . . . , y

n
. Entonces

PR =

PQ+

QR =
n

i=1
x

i
+
n

i=1
y

i
=
n

i=1
(y

i
x

i
)

i
luego

PR tiene componentes (y

i
x

i
), i = 1, 2, . . . , n en el sistema dado. Si =
n

i=1
a

i
, =
n

i=1
(a

i
)

i
luego tiene componentes a

i
, i = 1, 2, . . . , n en el
sistema dado. Si

=
n

i=1
b

i
entonces
+

=
n

i=1
(a

i
+b

i
)

i
,
+

tiene componentes a

i
+b

i
, i = 1, 2, . . . , n en el sistema dado.
Sean
1
,
2
, . . . ,
n
n vectores en V
n
, sea
i
=
n

k=1
a

ik

k
, sea
(a

ik
) =
_
_
_
_
_
a

11
a

12
a

1n
a

21
a

22
a

2n
.
.
.
.
.
.
.
.
.
.
.
.
a

m1
a

m2
a

mn
_
_
_
_
_
Llamamos

i
= a

i1
, a

i2
, . . . , a

in
, i = 1, 2, . . . , n y supongamos que
m

i=1

i
=

0.
Entonces
m

i=1

i
a

ik
=

0, k = 1, 2, . . . , n y por lo tanto
m

i=1

i

i
=
m

i=1

i
_
n

k=1
a

ik

k
_
=
n

k=1
_
m

i=1

i
a

ik
_

k
=

0 .
Luego si las las de (a

ik
) son l.d. entonces
1
,
2
, . . . ,
n
son l.d. con exactamente la
misma relacion lineal.
A la inversa, supongamos que
m

i=1

i

i
= 0, entonces
n

k=1
_
m

i=1

i
a

ik
_

k
= 0
m

i=1

i
a

ik
= 0 k = 1, 2, . . . , n
6.1. TRANSFORMACI

ON DE COORDENADAS 93
luego si los vectores
1
,
2
, . . . ,
n
son l.d. las las de (a

ik
) son l.d. con la misma
relacion lineal.
Se concluye que el n umero de vcetores l.i. que contiene un sistema linealmente inde-
pendiente maximal del conjunto
1
,
2
, . . . ,
m
es igual al n umero de vectores que
contiene un sistema linealmente independiente maximal del conjunto de las de la
matriz (a

ik
) y es por lo tanto igual al rango de dicha matriz.
6.1. Transformaci on de coordenadas
Problema: Sean [Q

1
,

2
, . . . ,

n
], y [Q

;
1
,
2
, . . . ,
n
] dos sistemas de coordenadas
en R
n
. Sea P R
n
y supongamos que se conocen las coordenadas de P en el primer
sistema. Se piden las coordenadas de P en el segundo sistema.
Sean

=
n

i=1
s
i

=
n

i=1
t
i

k
=
n

i=1
v
ik

i

k
=
n

i=1
u
ik

i
k = 1, 2, . . . , n
Sean x
1
, x
2
, . . . , x
n
las coordenadas de P en el primer sistema, y
1
, y
2
, . . . , y
n
las
coordenadas de P en el segundo sistema. Entonces

P =
n

i=1
x
i

P =
n

i=1
y
i

i
Pero

Q

P =

Q

P luego
n

i=1
y
i

i
=
n

i=1
t
i

i
+
n

k=1
x
k

k
=
n

i=1
t
i

i
+
n

i=1
_
n

k=1
v
ik
x
k
_

i
y
i
= t
i
+
n

k=1
v
ik
x
k
i = 1, 2, . . . , n. Analogamente,

Q

P =

Q

P luego
x
i
= s
i
+
n

k=1
u
ik
y
k
i = 1, 2, . . . , n
(6.1)
Decimos que (6.1) es una transformacion de coordenadas del primer sistema al segundo
o viceversa.
Problema: Como cambian las componentes de un vector frente a una transformacion
de coordenadas?
Sea V
n
con componentes a
1
, a
2
, . . . , a
n
con respecto al primer sistema y compo-
nentes b
1
, b
2
, . . . , b
n
con respecto al segundo sistema.
94 CAP

ITULO 6. SISTEMAS DE COORDENADAS


=
n

k=1
a
k

k
=
n

k=1
b
k

k
n

i=1
b
i

i
=
n

i=1
_
n

k=1
v
ik
a
k
_

i
b
i
=
n

i=1
v
ik
a
k
i = 1, 2, . . . , n
Analogamente
n

i=1
a
i

i
=
n

i=1
_
n

k=1
u
ik
b
k
_

i
a
i
=
n

k=1
u
ik
b
k
i = 1, 2, . . . , n
Analicemos con mayor detencion las expresiones

k
=
n

i=1
v
ik

k
=
n

i=1
u
ik

i
k = 1, 2, . . . , n
Como

1
,

2
, . . . ,

n
son l.i., el rango de (v
ik
) es igual a n. Como
1
,
2
, . . . ,
n
son
l.i., el rango de (u
ik
) es igual a n. Se concluye que det(v
ik
) y det(u
ik
) son distintos de
cero.
Problema: Supongamos que solo [Q

1
,

2
, . . . ,

n
] es dado y que tambien el sistema
de ecuaciones
y
i
= t
i
+
n

k=1
v
ik
x
k
i = 1, 2, . . . , n
con det(v
ik
) ,= 0 es dado. Este sistema de ecuaciones le asigna a un punto P de co-
ordenadas x
1
, x
2
, . . . , x
n
con respecto al sistema [Q

1
,

2
, . . . ,

n
] una n-tupla de
n umeros y
1
, y
2
, . . . , y
n
. Existe un sistema de coordenadas donde las coordenadas de
P son precisamente y
1
, y
2
, . . . , y
n
?
Sea V
ik
el adjunto de v
ik
en det(v
ik
). Revisando la demostracion de la regla de Cramer
se obtiene que
x
k
=
n

i=1
(y
i
t
i
)V
ik
det(v
ik
)
k = 1, 2, . . . , n
Llamemos
s
k
=
n

i=1
t
i
V
ik
det(v
ik
)
u
ki
=
V
ik
det(v
ik
)
k = 1, 2, . . . , n
6.2. VARIEDADES LINEALES Y SISTEMAS DE ECUACIONES 95
Obtenemos as el sistema
x
k
= s
k
+
n

i=1
u
ki
y
i
k = 1, 2, . . . , n
Sea Q

el punto tal que



Q

=
n

i=1
s
i

i
y denamos
1
,
2
, . . . ,
n
por

k
=
n

i=1
u
ik

i
.
El analisis previo nos dice que
1
,
2
, . . . ,
n
son l.i. entonces [Q

;
1
,
2
, . . . ,
n
] es el
sistema de coordenadas pedido.
Analogamente, dada una base

1
,

2
, . . . ,

n
y el sistema de ecuaciones
b
i
=
n

i=1
v
ik
a
k
i = 1, 2, . . . , n det(v
ik
) ,= 0
podemos encontrar una segunda base
1
,
2
, . . . ,
n
tal que estas ecuaciones represen-
tan las ecuaciones de transicion para las componentes de un vector al pasar de la base

1
,

2
, . . . ,

n
a la base
1
,
2
, . . . ,
n
.
6.2. Variedades lineales y sistemas de ecuaciones
En otro captulo demostramos que toda variedad lineal es representable mediante un
sistema lineal de ecuaciones en el sentido que M consiste precisamente de aquellos
puntos que son las soluciones del sistema de ecuaciones, pero en la deduccion esta im-
plcito que el sistema de coordenadas es [O; e
1
, e
2
, . . . , e
n
]. Cual es la situacion cuando
el sistema de coordenadas es arbitrario?
Sea [Q

1
,

2
, . . . ,

n
] un sistema de coordenadas en el cual toda variedad lineal de
dimension p es representable por un sistema lineal de ecuaciones cuya matriz tiene
rango n p y tal que, a la inversa, todo sistema de esa naturaleza representa una
variedad lineal de dimension p. Existen sistemas de coordenadas as, [O; e
1
, e
2
, . . . , e
n
]
es uno.
Supongamos que la variedad lineal M de dimension p esta dada por el sistema de
ecuaciones
n

k=1
a
ik
x
k
= b
i
i = 1, 2, . . . , m (6.2)
donde el rango de (a
ik
) es n p.
Sea [Q

;
1
,
2
, . . . ,
n
] otro sistema de coordenadas y supongamos que las ecuaciones
de transicion para pasar del sistema [Q

;
1
,
2
, . . . ,
n
] al sistema [Q

1
,

2
, . . . ,

n
]
son
x
i
= s
i
+
n

k=1
u
ik
y
k
i = 1, 2, . . . , n
96 CAP

ITULO 6. SISTEMAS DE COORDENADAS


Llamemos

i
= u
i1
, u
i2
, . . . , u
in
i = 1, 2, . . . , n
y = y
1
, y
2
, . . . , y
n

Entonces x
i
= s
i
+

i
y, sustituyendo en (6.2) se tiene
n

k=1
a
ik
(s
k
+

k
y) = b
i
_
n

k=1
a
ik

k
_
y = b
i

n

k=1
a
ik
s
k
i = 1, 2, . . . , n (6.3)
Sea P M, sean x
1
, x
2
, . . . , x
n
sus coordenadas con respecto a [Q

1
,

2
, . . . ,

n
],
sean y
1
, y
2
, . . . , y
n
con respecto a [Q

;
1
,
2
, . . . ,
n
]. Por hipotesis las coordenadas
x
1
, x
2
, . . . , x
n
satisfacen las ecuaciones (6.2), como x
i
= s
i
+

i
y, al reemplazar las
x
i
en (6.2), obtenemos que las y
i
satisfacen el sistema (6.3).
A la inversa, sean y
1
, y
2
, . . . , y
n
las coordenadas de un punto P en R
n
con respecto
a [Q

;
1
,
2
, . . . ,
n
] y supongamos que satisfacen (6.3). Entonces sus coordenadas x
1
,
x
2
, . . . , x
n
con respecto a [Q

1
,

2
, . . . ,

n
] satisfacen x
i
= s
i
+

i
y, i = 1, 2, . . . , n
y por (6.3)
n

k=1
a
ik
(s
k
+

k
y) = b
i
luego
n

k=1
a
ik
x
k
= b
i
i = 1, 2, . . . , n
y por lo tanto P M y (6.3) representa a M en [Q

;
1
,
2
, . . . ,
n
].
Consideremos la matriz de coecientes del sistema (6.3), llamemos

i
=
n

k=1
a
ik

k
i = 1, 2, . . . , n
a sus vectores la.
Los vectores

1
,

2
, . . . ,

n
son l.i., luego, por un teorema previo, el n umero de vec-
tores de cualquier subconjunto linealmente independiente maximal de
1
,
2
, . . . ,
n
es igual al rango de (a
ik
) el cual es np, de modo que la matriz del sistema (6.3) tiene
rango n p.
Nota: Todo sistema lineal de ecuaciones en las variables y
1
, y
2
, . . . , y
n
y con matriz
de rango n p representa una variedad lineal de dimension p en cualquier sistema de
coordenadas [Q

;
1
,
2
, . . . ,
n
]. Basta usar las ecuaciones
y
i
= t
i
+
n

k=1
v
ik
x
k
i = 1, 2, . . . , n
y el sistema transforma a un sistema en las variables x
1
, x
2
, . . . , x
n
con matriz de
rango np y referido al sistema de coordenadas [Q

1
,

2
, . . . ,

n
] donde por hipotesis
6.3. VOL

UMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 97


un tal sistema representa a una variedad lineal de dimension p.
Si en (6.2) hacemos b
i
= 0, i = 1, 2, . . . , n, entonces x
i
=

i
y, i = 1, 2, . . . , n y por lo
tanto (6.3) es homogeneo; por teoremas previos se tiene entonces:
Un subespacio de dimension p se representa en cualquier sistema de coordenadas por
un sistema homogeneo de ecuaciones cuya matriz tiene rango n p; a la inversa,
cualquier sistema lineal homogeneo cuya matriz tiene rango n p representa a un
subespacio de dimension p.
6.3. Vol umenes y sistemas de coordenadas cartesianas
Problema: Sean
1
,
2
, . . . ,
n
n vectores cuyas componentes estan dadas en el sis-
tema de coordenadas [Q;

1
,

2
, . . . ,

n
]. Se pide el volumen del paralelotopo de aristas

1
,
2
, . . . ,
n
.
Sean
i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , n, sean a

i1
, a

i2
, . . . , a

in
las componentes de

i
con respecto a la base

1
,

2
, . . . ,

n
, se tiene

i
=
n

=1
a

Sean v
i1
, v
i2
, . . . , v
in
las componentes del vector

i
con respecto a la base estandar,
se tiene

i
= v
i1
, v
i2
, . . . , v
in
=
n

k=1
v
ik
e
k
Puesto que
i
=
n

k=1
a
ik
e
k
tenemos que
n

k=1
a
ik
e
k
=
n

=1
_
a

i
n

k=1
v
k
e
k
_
=
n

k=1
_
n

=1
a

i
v
k
_
e
k
luego
a
ik
=
n

=1
a

i
v
k
i, k = 1, 2, . . . , n
esto es, la matriz (a
ik
) resulta de multiplicar las matrices (a

ik
) y (v
ik
), luego
det(a
ik
) = det(a

ik
) det(v
ik
) (6.4)
donde el volumen pedido es [ det(a
ik
)[. La ecuacion (6.4) dice que tal volumen puede
ser calculado conociendo las componentes de las aristas en el sistema [Q;

1
,

2
, . . . ,

n
]
y las expresiones de los vectores

i
en la base estandar.
Problema: Como se comporta el producto escalar en un sistema de coordenadas
[Q;

1
,

2
, . . . ,

n
]?
98 CAP

ITULO 6. SISTEMAS DE COORDENADAS


Sean
a = a
1
, a
2
, . . . , a
n
a =
n

i=1
a

b = b
1
, b
2
, . . . , b
n


b =
n

i=1
b

i
a

b =
n

i=1
a
i
b
i
=
_
n

i=1
a

i
_

_
n

i=1
b

k
_
=
n

i=1
n

k=1
a

i
b

k
(

k
)
Vemos que la formula no es analoga a la original en que las componentes estan dadas
con respecto a la base estandar. Si

k
= 0 i ,= k,

k
= 1 si i = k entonces
a

b =
n

i=1
a

i
b

i
(6.5)
Demostremos que la condicion

k
=
ik
es necesaria para que se cumpla (6.5).
Tomemos a =

i
,

b =

k
, entonces a

j
= 0 si j ,= i, a

i
= 1, analogamente para b

i
,
luego

k
=
ik
.
Denicion 6.2 Diremos que
1
,
2
, . . . ,
p
forman un sistema ortonormal de vec-
tores si
i

k
=
ik
, i, k = 1, 2, . . . , p
Si
p

i=1

i

i
= 0 entonces
p

i=1

i
(
i

k
) = 0; esto nos dice que todos los
k
son cero,
luego todo sistema ortonormal de vectores consta de vectores l.i.
Denicion 6.3 Si [Q;

1
,

2
, . . . ,

n
] es tal que

1
,

2
, . . . ,

n
es ortonormal diremos
que [Q;

1
,

2
, . . . ,

n
] es un sistema de coordenadas cartesianas.
Vemos que [Q; e
1
, e
2
, . . . , e
n
] es un sistema de coordenadas cartesianas luego no hay
problema con su existencia.
Sean [Q

1
,

2
, . . . ,

n
], [Q

;
1
,
2
, . . . ,
n
] cartesianos, sean

k
=
n

i=1
v
ik

k
=
n

i=1
u
ik

i
k = 1, 2, . . . , n
Entonces

k

j
= v
jk
,
k

j
= u
jk
, 1 j, k n. Luego si en la segunda ecuacion
intercambiamos k por j se tiene que
v
jk
= u
kj
1 j, k n
6.3. VOL

UMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 99


de donde

k
=
n

i=1
v
ki

i
(6.6)
Como
1
,
2
, . . . ,
n
es ortonormal

j
=
n

i=1
v
ik
v
ij
=
kj
k, j = 1, 2, . . . , n
Analogamente se tiene

k

j
=
n

i=1
v
ki
v
ji
=
kj
k, j = 1, 2, . . . , n
Tenemos entonces que las las y las columnas de (v
ik
) forman sistemas ortonormales
de vectores. Tales matrices se dicen ortogonales.
En
n

i=1
v
ik
v
ij
=
kj
multipliquemos por V
hj
donde V
hj
es el adjunto de v
hj
en det(v
kj
),
donde h es un entero jo entre 1 y n, luego sumamos las n ecuaciones resultantes:
n

j=1
_
n

i=1
v
ik
v
ij
V
hj
_
=
n

j=1

kj
V
hj
n

i=1
_
_
n

j=1
v
ij
V
hj
_
_
v
ik
= V
hk
n

i=1
(
ih
det(v
ik
))v
ik
= V
hk
v
hk
det(v
ik
) = V
hk
Como det(v
ik
) ,= 0 se tiene
v
hk
=
V
hk
det(v
ik
)
1 h n, 1 k n (6.7)
Estas relaciones caracterizan a una matriz ortogonal, en efecto
n

i=1
v
ik
v
ij
=
n

i=1
v
ik
V
ij
det(v
ik
)
=
kj
n

i=1
v
ki
v
ji
=
n

i=1
v
ki
V
ji
det(v
ik
)
=
kj
Notese que las relaciones (6.7) provienen exclusivamente de

j
=
n

i=1
v
ik
v
ij
=
kj
pero las relaciones

k

j
=
n

i=1
v
ki
v
ji
=
kj
100 CAP

ITULO 6. SISTEMAS DE COORDENADAS


pueden ser deducidas de las relaciones (6.7), se concluye:
Si las columnas de una matriz forman un sistema ortonormal, sus las tambien forman
un sistema ortonormal.
Por otra parte, si las las de una matriz forman un sistema ortonormal, las columnas
de la traspuesta forman un sistema ortonormal y por lo tanto las las de la traspuesta
tambien, luego si las las de una matriz forman un sistema ortonormal, sus columnas
tambien forman un sistema ortonormal.
Sea (v
ik
) ortogonal, entonces
(det(v
ik
))
2
= det(v
ik
) det(a
ik
) , donde (a
ik
) = (v
ik
)
t
= det
_
n

=1
v
i
a
k
_
= det
_
n

=1
v
i
v
k
_
= 1
[ det(v
ik
)[ = 1
Problema: Queremos calcular el volumen de un paralelotopo cuyas aristas
1
,
2
,
. . . ,
n
estan en un sistema cartesiano [Q;

1
,

2
, . . . ,

n
].
Si
i
=
n

k=1
a

ik

k
y

i
=
n

k=1
v
ik
e
k
como det(a
k
) = det(a

ik
) det(v
ik
) el volumen pedido
es
[ det(a
ik
)[ = [ det(a

ik
)[[ det(v
ik
)[ ,
como

1
,

2
, . . . ,

n
es ortonormal entonces [ det(v
ik
)[ = 1 luego el volumen pedido
es [ det(a

ik
)[. Se concluye que la formula para el volumen es la misma para todos los
sistemas cartesianos.
6.4. Deformacion continua de sistemas de coorde-
nadas
Nota: Sabemos que si

1
,

2
, . . . ,

n
son l.i., D(

1
,

2
, . . . ,

n
) ,= 0. Puesto que
D(

1
,

2
, . . . ,

n
) = D(

1
,

2
, . . . ,

n
), si r es un real arbitrario distinto de cero,
siempre existe una base

1
,

2
, . . . ,

n
donde D(

1
,

2
, . . . ,

n
) = r. En efecto, sea
1
,

2
, . . . ,
n
una base cualquiera, sea D(
1
,
2
, . . . ,
n
) = d ,= 0,
D(
r
d

1
,
2
, . . . ,
n
) =
r
d
D(
1
,
2
, . . . ,
n
) = r ,
llame

1
=
r
d

1
,

i
=
i
, i = 2, 3, . . . , n.
Dividamos los sistemas de coordenadas en dos clases; aquellos para los cuales el va-
lor de D(

1
,

2
, . . . ,

n
) es positivo y aquellos para los cuales D(

1
,

2
, . . . ,

n
) < 0.
Queremos demostrar que dos sistemas de la misma clase pueden ser deformados con-
tinuamente el uno en el otro sin que D(

1
,

2
, . . . ,

n
) adopte el valor 0 durante el
proceso de deformacion y que esto no es posible para dos sistemas de distinta clase.
Intuitivamente, esto signica que dos n-edros de la misma clase pueden hacerse coin-
cidir mediante un cambio suave de sus angulos y longitudes, piense por ejemplo en
6.4. DEFORMACI

ON CONTINUA DE SISTEMAS DE COORDENADAS 101


dos trpodes en R
3
. Tratemos de precisar estas ideas.
Sean

= v
1
, v
2
, . . . , v
n
, = u
1
, u
2
, . . . , u
n
, sean f
i
(t), i = 1, 2, . . . , n funciones
continuas denidas en c t d tales que f
i
(c) = v
i
, f
i
(d) = u
i
, i = 1, 2, . . . , n.
Entonces f
1
(c), f
2
(c), . . . , f
n
(c) =

, f
1
(d), f
2
(d), . . . , f
n
(d) = , la funcion vecto-
rial

f(t) = f
1
(t), f
2
(t), . . . , f
n
(t)
es una funcion continua de t en c t d. Decimos que el vector

es deformado
continuamente en el vector .
El intervalo [c, d] es irrelevante. Sea [c

, d

] otro intervalo, sea


t =
(c d)t

+dc

cd

Si t

vara de c

a d

, t recorre (c, d) de c a d, entonces


f
i
_
(c d)t

+dc

cd

_
, i = 1, 2, . . . , n
denidas en [c

, d

] son funciones g
i
(t)

tales que g(c

) =

, g(d

) = luego g(t

) cumple
con el mismo proposito de

f(t).
Sean [Q;

1
,

2
, . . . ,

n
], [Q

;
1
,
2
, . . . ,
n
] dos sistemas de coordenadas, sea Q =
(x
1
, x
2
, . . . , x
n
), Q

= (y
1
, y
2
, . . . , y
n
), tomemos
f
i
(t) = x
i
+t(y
i
x
i
) 0 t 1 , i = 1, 2, . . . , n .
Entonces el punto Q es deformado continuamente en el punto Q

a lo largo del seg-


mento QQ

.
Tenemos que demostrar que el sistema de vectores

1
,

2
, . . . ,

n
puede ser defor-
mado continuamente en el sistema de vectores
1
,
2
, . . . ,
n
de modo que la inde-
pendencia lineal se preserve en todo momento del proceso de deformacion, esto es, si

i
= v
i1
, v
i2
, . . . , v
in
,
i
= u
i1
, u
i2
, . . . , u
in
, i = 1, 2, . . . , n tenemos que encontrar
n
2
funciones continuas f
ik
(t) denidas en c t d tales que f
ik
(c) = v
ik
, f
ik
(d) = u
ik
y tales que para todo t con c t d se tiene que det(f
ik
(t)) ,= 0. Esto no puede
suceder si D(

1
,

2
, . . . ,

n
) = det(v
ik
) y D(
1
,
2
, . . . ,
n
) = det(u
ik
) tienen signos
opuestos, puesto que det(f
ik
(t)) es una funcion continua de t en c t d luego para
al menos un t
0
[c, d] debera tenerse que det(f
ik
(t
0
)) = 0. Supondremos entonces
que det(v
ik
) y det(u
ik
) tienen el mismo signo. Podemos elegir un representativo de
la clase con determinante positivo, por ejemplo, e
1
, e
2
, . . . , e
n
y un representativo
de la clase con determinante negativo, digamos e
1
, e
2
, . . . , -e
n
. Demostraremos que
cada sistema en una clase puede ser deformado continuamente en su correspondiente
representativo. Si

1
,

2
, . . . ,

n
;
1
,
2
, . . . ,
n
estan en la clase con determinante
positivo y ambos pueden ser deformados continuamente en e
1
, e
2
, . . . , e
n
entonces, de
manera analoga, podemos deformar e
1
, e
2
, . . . , e
n
en
1
,
2
, . . . ,
n
y as

1
,

2
, . . . ,

n
puede ser deformado en
1
,
2
, . . . ,
n
va e
1
, e
2
, . . . , e
n
. Analogamente para el
caso con determinante negativo.
102 CAP

ITULO 6. SISTEMAS DE COORDENADAS


Teorema 6.4 Sea

1
,

2
, . . . ,

n
un sistema de vectores tales que D(

1
,

2
, . . . ,

n
) >
0. Entonces

1
,

2
, . . . ,

n
puede ser deformado continuamente en e
1
, e
2
, . . . , e
n
sin que el determinante del sistema de vectores se anule en ninguna etapa del proce-
so. Analogamente,

1
,

2
, . . . ,

n
puede ser deformado en e
1
, e
2
, . . . , e
n
solo si
D(

1
,

2
, . . . ,

n
) < 0.
Demostracion: Para n = 1, sea

1
= v, det(v) = v. Si v > 0, sea f(t) = v+t(1v),
0 t 1; si v < 0 sea f(t) = v + t(1 v), 0 t 1. Para n = 1 el teorema es
verdadero, supongamos que es verdadero para n 1.
Lema 6.5

1
,

2
, . . . ,

n
puede ser deformado continuamente en

1
,

2
, . . . ,

i
,

,

i+1
, . . . ,

n
donde

=

i
+

k
, i ,= k, real, de modo que el determinante permanece
constante durante el proceso de deformacion.
Demostracion: Sean f
is
(t) las n
2
funciones determinadas en 0 t por:

f
i
(t) =

i
+t

k
, 0 t ; f
j
(t) =

j
, j ,= i, 0 t
esto es,
f
is
(t) = v
is
+tv
ks
0 t , s = 1, 2, . . . , n
f
js
(t) = v
js
0 t , s = 1, 2, . . . , n, j ,= i
Dado que D(

1
,

2
, . . . ,

n
) = D(

1
,

2
, . . . ,

i
+ t

k
, . . . ,

n
) el determinante per-
manece constante.
Lema 6.6 El sistema de vectores

1
,

2
, . . . ,

n
puede ser continuamente deformado
sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de
el por un cambio simultaneo del signo de dos vectores, digamos, sustituyendo

i
,

k
por

i
,

k
.
Demostracion: Consideremos la operacion del primer lema como una del siguiente
tipo:
Si j ,= i, j ,= k,

j
permanece igual.

i
se reemplaza por

i
+

k
, se anota

i
+

k
.

k
se reemplaza por

k
, se anota

k
.
Apliquemos en forma sucesiva esta nueva forma del primer lema:

i
+ 2

k
, luego

i
+ 2

i
+ 2

k
, luego

i
+ 2

k
6.4. DEFORMACI

ON CONTINUA DE SISTEMAS DE COORDENADAS 103


y por ultimo

k
.
Al menos un vector

i
debe tener v
ik
,= 0, si no es as, det(v
ik
) = 0. Si v
nn
= 0, hay

i
con v
in
,= 0 y por el primer lema podemos reemplazar

n
por

i
+

n
, luego podemos
suponer que v
nn
,= 0. Luego

v
1n
v
nn

n
, la ultima componente de este vector es
cero. En general, hacemos

i

v
in
v
nn

n
, 1 i n 1 entonces
det(v
ik
) =

b
11
b
12
b
1(n1)
0
b
21
b
22
b
2(n1)
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
(n1)1
b
(n1)2
b
(n1)(n1)
0
v
n1
v
n2
v
n(n1)
v
nn

Apliquemos el primer lema al sistema de columnas de este ultimo determinante:


(i-esima columna) (i-esima columna)
v
ni
v
nn
(n-esima columna)
(esto implica una deformacion continua del sistema de las de la nueva matriz las
cuales son en realidad los nuevos vectores

i
, esto es porque al deformar continua-
mente el sistema de columnas de la nueva matriz de todos modos hubo que encontrar
n
2
funciones g
ik
(t) que produjesen la deformacion. Para interpretarlas como deforma-
ciones continuas de los nuevos

i
basta considerarlas en el orden adecuado).
El nuevo determinante adopta la forma

b
11
b
12
b
1(n1)
0
b
21
b
22
b
2(n2)
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
(n1)1
b
(n1)2
b
(n1)(n1)
0
0 0 0 v
nn

= v
nn

b
11
b
12
b
1(n1)
b
21
b
22
b
2(n1)
.
.
.
.
.
.
.
.
.
.
.
.
b
(n1)1
b
(n1)2
b
(n1)(n1)

luego el determinande de (n 1) (n 1), det(b


ik
) es distinto de cero puesto que
v
nn
,= 0. Sea e

1
, e

2
, . . . , e

n1
los vectores de la base estandar de R
n1
. Por la hipotesis
de induccion, el sistema de las de (b
ik
) puede ser deformado continuamente en e

1
, e

2
,
. . . , e

n1
o bien en e

1
, e

2
, . . . , e

n1
sin que el determinante cambie de signo; det(b
k
)
queda en la forma

1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1

y por lo tanto el determinante original queda en la forma

1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 v
nn

104 CAP

ITULO 6. SISTEMAS DE COORDENADAS


Finalmente, si v
nn
> 0, transformemos v
nn
continuamente a 1, si v
nn
< 0 trans-
formemos v
nn
continuamente a 1. Si el elemento (n 1)(n 1) de la matriz es +1,
el teorema esta demostrado, si es 1, aplicamos el segundo lema y el determinante
queda en la forma

1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1

Este determinante vale 1 si el elemento nn vale 1 y vale 1 si el elemento nn vale 1


y esto depende de si det(v
ik
) > 0 o bien det(v
ik
) < 0, el teorema queda demostrado.
6.5. Construccion de sistemas ortonormales
Sea L un subespacio de V
n
, dimL = p, tiene L una base ortonormal?
Sea
1
,
2
, . . . ,
p
una base de L. Si p = 1,

1
=

1

1

constituye un tal sistema.


Supongamos que todos los subespacios de dimension p1 tienen una base ortonormal,
sea L

el subespacio generado por


1
,
2
, . . . ,
p1
. Por hipotesis, L

tiene una base


ortonormal

1
,

2
, . . . ,

p1
. El sistema

1
,

2
, . . . ,

p1
,
p
es l.i. luego un vector

p
con |

p
| = 1 y ortogonal a

1
,

2
, . . . ,

p1
debe ser de la forma

p
=
n1

i=1

i
+
p

p
.
Haciendo producto punto con

i
, 1 i p 1, se obtiene
0 =
i
+
p
(
p

i
)
i
=
p
(
p

i
) 1 i p 1
luego

p
=
p
_

p

p1

i=1
(
p

i
)

i
_
. Como |

p
| = 1 y

1
,

2
, . . . ,

p1
,
p
es l.i.
podemos concluir que
_
_
_
_
_

p

p1

i=1
(
p

i
)

i
_
_
_
_
_
,= 0 y

p
=
1
_
_
_
_
_

p

p1

i=1
(
p

i
)

i
_
_
_
_
_
luego

1
,

2
, . . . ,

p
con

p
=

p

p1

i=1
(
p

i
)

i
_
_
_
_
_

p

p1

i=1
(
p

i
)

i
_
_
_
_
_
6.6. DISTANCIA Y VARIEDADES LINEALES 105
es una base ortonormal de L.
Esta formula proporciona un metodo recursivo para determinar los

i
, basta tomar

1
=

1

1

entonces

2
=

2
(
2

1
)

1
|
2
(
2

1
)

1
|
,
luego tenemos

1
y

2
y usamos la formula para determinar

3
, etc.
6.6. Distancia y Variedades lineales
Sea [Q;

1
,

2
, . . . ,

n
] un sistema de coordenadas cartesiandas en R
n
. Si =
n

i=1
a
i

i
entonces

i
= a
i
, 1 i n luego
| |
2
= =
n

i=1
a
2
i
=
n

i=1
(

i
)
2
Problema: Sea M una variedad lineal, P / M, M ,= R
n
, M contiene mas de un pun-
to. Sea dimM = p, 0 < p < n, sea L el subespacio generador. Queremos determinar
la perperdicular bajada de P a M.
Sea

1
,

2
, . . . ,

p
una base ortonormal de L, la extendemos a una base ortonormal de
V
n
, llamaremos L

al subespacio generado por


p+1
,

p+1
, . . . ,

n
. Es claro que todo
vector de L

es ortogonal a todo vector de L y si L L

entonces
=
p

i=1

i
=
n

i=p+1

i
luego
i
= 0, i = 1, 2, . . . , n, y = 0.
Sea un vector cualquiera que es ortogonal a todos los vectores de L. Entonces
=
n

i=1
a
i

i
y a
1
= a
2
= = a
p
= 0 luego L

. Se concluye que el conjun-


to de todos los vectores ortogonales a L es el subespacio L

.
Sea Q = (y
1
, y
2
, . . . , y
n
) tal que Q / M. Existe un punto P M tal que

PQ es
ortogonal a todos los vectores de L?
Sea P
0
M arbitrario,

P
0
Q =
n

i=1

i
y llamemos

=
p

i=1

i
, al aplicar

en P
0
, P
0
se transforma en P, esto es,

P
0
P =

y
como

L entonces P M. Pero

P
0
Q =

P
0
P +

PQ luego

PQ =
n

i=p+1

i
,

PQ L

,
106 CAP

ITULO 6. SISTEMAS DE COORDENADAS


luego P es uno de los puntos buscados. Queremos demostrar que P es unico. Sea P

otro.

P

Q =
n

i=1

i
y

P

i
= 0, i = 1, 2, . . . , p luego
i
= 0, i = 1, 2, . . . , p

Q =

P

P +

PQ

P =

P

PQ =
n

i=p+1
(
i

i
)

i
luego

P

P L

y como P

, P M entonces

P

P L. Como LL

= 0 se sigue que
P = P

.
Llamaremos al segmento PQ (o al vector

PQ) la perpendicular de Q a M, P se llama
el pie de la perpendicular.
PQ =

_
n

i=p+1

2
i
=

_
n

i=p+1
[(

P
0
Q

i
)]
2
donde P
0
es un punto arbitrario de M. Pero
P
0
Q =

_
n

i=1
[(

P
0
Q

i
)]
2
luego P
0
Q PQ.
Hay igualdad solo si
p

i=1
[(

P
0
Q

i
)]
2
= 0, esto es solo si

P
0
Q

i
= 0, i = 1, 2, . . . , p, y
esto se da solo si P
0
= P.
PQ es la distancia mas corta de un punto Q a la variedad M. A la inversa, si P
0
M
y P
0
Q es la distancia mas corta de Q a M entonces P
0
Q = PQ es la perpendicular de
Q a M.
Problema: Supongamos que M esta dada por el sistema lineal
n

k=1
a
ik
x
k
= b
i
i = 1, 2, . . . , r
Queremos encontrar la perpendicular de Q a M. Suponemos que la matriz del sistema
tiene rango r, o sea que las r ecuaciones son independientes.
El subespacio L generador de M tiene dimension p = n r y esta representado por el
correspondiente sistema homogeneo
n

k=1
a
ik
x
k
= 0 i = 1, 2, . . . , r
y esta compuesto por todas las soluciones vectoriales de tal sistema. Si x = x
1
, x
2
, . . . , x
n

es una solucion vectorial y


i
= a
i1
, a
i2
, . . . , a
in
, i = 1, 2, . . . , r es un vector la de
la matriz del sistema se tiene que
i
x = 0, i = 1, 2, . . . , r luego ellos son todos ortog-
onales a L. Sea L

el subespacio de todos los vectores ortogonales a L, sabemos que L

6.6. DISTANCIA Y VARIEDADES LINEALES 107


tiene dimension np = r; como
1
,
2
, . . . ,
r
son l.i. y estan en L

, ellos constituyen
una base para L

. Por el metodo de ortonormalizacion, podemos obtener una base


ortonormal para L

a partir de
1
,
2
, . . . ,
r
. Recordando que np = r, reramonos
a esta base ortonormal de L

por

p+1
,

p+2
, . . . ,

n
. Sea

p+1
= v
i1
, v
i2
, . . . , v
in
,
i = 1, 2, . . . , r y elijamos P
0
M arbitrario pero jo. Consideremos el sistema lineal
de ecuaciones
n

k=1
v
ik
x
k
=
n

k=1
v
ik
z
k
i = 1, 2, . . . , r P
0
= (z
1
, z
2
, . . . , z) (6.8)
Si P = (x
1
, x
2
, . . . , x
n
) es una solucion de este sistema, entonces

P
0
P

p+i
= 0,
i = 1, 2, . . . , r luego

P
0
P L y por lo tanto P M. A la inversa, si P M,

P
0
P L
y es solucion vectorial del sistema homogeneo, luego es ortogonal a todos los vectores
de L

y por lo tanto es solucion de (6.8). Se concluye que (6.8) representa a M.


Sea Q = (y
1
, y
2
, . . . , y
n
) un punto que no esta en M. Entonces

P
0
Q

p+i
=
n

k=1
v
ik
(y
k
z
k
) i = 1, 2, . . . , r
Si P es el pie de la perpendicular de Q a M sabemos que
PQ =

_
n

i=p+1
[

P
0
Q

i
]
2
donde P
0
M y es arbitrario y

p+1
,

p+2
, . . . ,

n
es una base ortonormal de L

. Como

p+i
, i = 1, 2, . . . , r es una base ortonormal de L

tenemos que
PQ
2
=
r

i=1
_
n

k=1
v
ik
(y
k
z
k
)
_
2
El caso mas com un es aquel en que M es un hiperplano, esto es, M tiene dimension
n 1. En tal caso M esta dado por una sola ecuacion
n

i=1
a
i
x
i
= b
Entonces L

tiene dimension 1 y es generado por = a


1
, a
2
, . . . , a
n
. Sea

=

| |
= a

1
, a

2
, . . . , a

n
a

i
=
a
i

_
n

i=1
a
2
i
Sea P
0
= (z
1
, z
2
, . . . , z
n
) un punto arbitrario de M entonces
n

i=1
a

i
z
i
=
n

i=1
a
i
z
i

_
n

i=1
a
2
i
=
b

_
n

i=1
a
2
i
108 CAP

ITULO 6. SISTEMAS DE COORDENADAS


La nueva ecuacion de M es
n

i=1
a
i
x
i

_
n

i=1
a
2
i
=
b

_
n

i=1
a
2
i
y se llama la forma normal de hiperplano M.
La perpendicular PQ esta dada por
PQ
2
=
_
n

k=1
a

k
(y
k
z
k
)
_
2
PQ
2
=
_

_
n

k=1
a
k

_
n

i=1
a
2
i
(y
k
z
k
)
_

_
2
=
_

_
n

k=1
_
_
_
_
_
_
_
_
a
k
y
k

_
n

i=1
a
2
i
_
_
_
_
_
_
_
_

_
n

i=1
a
2
i
_

_
2
Esto nos da una manera mecanica de calcular la distancia de un punto a un hiperplano.
Escriba el hiperplano en forma normal y acumule todos los terminos en el miembro
izquierdo, reemplace las coordenadas de P = (c
1
, c
2
, . . . , c
n
) por las coordenadas de
Q = (y
1
, y
2
, . . . , y
n
). El valor absoluto de lo que resulta es la distancia pedida.
Problema: Sean M
1
, M
2
variedades lineales, queremos encontrar la perpendicular
com un (cuando esta exista). Buscamos P L
1
, Q L
2
tales que el vector

PQ es
ortogonal a M
1
y M
2
.
Sea L
1
el subespacio generador de M
1
, L
2
el de M
2
. Sea S = L
1
+ L
2
de dimension
s > 0 (M
1
y M
2
no consisten ambos de un solo punto). Sea

1
,

2
, . . . ,

s
una base
ortonormal de S. Si s = n, el unico vector ortogonal a todos los vectores de S es

0. Un
vector que es ortogonal a todos los vectores de L
1
y L
2
debe ser ortogonal a todos los
vectores de S, luego la perpendicular com un es

0, luego P = Q M
1
M
2
, se concluye
que M
1
M
2
,= .
Pero M
1
M
2
,= . En efecto, sea P
0
M
1
, Q
0
M
2
entonces

P
0
Q
0
S porque
s = n entonces hay
1
L
1
,
2
L
2
tales que

P
0
Q
0
=
1
+
2
. Supongamos
que
1
lleva P
0
en P y que
2
lleva a Q
0
en Q entonces

P
0
P =
1
,

QQ
0
=
2
,

P
0
Q
0
=

P
0
P +

PQ+

QQ
0
, esto es,

1
+
2
=

PQ+
1
+
2
luego P = Q.
Por construccion, P M
1
, Q M
2
luego M
1
M
2
,= . Se concluye que si s = n la
perpendicular com un es

0.
Supongamos entonces que s < n. Sea

1
,

2
, . . . ,

s
base ortonormal de S, la extende-
mos a una base ortonormal de V
n
, sea L

subespacio generado por


s+1
,

s+2
, . . . ,

n
,
6.6. DISTANCIA Y VARIEDADES LINEALES 109
L

es el subespacio de todos los vectores ortogonales a S, S L

0. Si P
0
M
1
,
Q
0
M
2
y

P
0
Q
0
=
n

i=1

i
, llamemos =
s

i=1

i
. S luego hay
1
L
1
,
2
L
2
tales que =
1
+
2
. Sea P M
1
tal que

P
0
P =
1
, Q M tal que

Q
0
Q =
2
.

P
0
Q
0
=

P
0
P +

PQ+

QQ
0
y tambien

P
0
Q
0
= +
n

i=p+1

i
=
1
+
2
+
n

i=p+1

i
=

P
0
P +

QQ
0
+
n

i=p+1

i
luego

PQ =
n

i=p+1

i
luego

PQ L

y es ortogonal a todos los vectores de S y por lo tanto a todos los


vectores de L
1
y L
2
.
Sean P

M
1
, Q

M
2
tales que

P

es una perpendicular com un. Entonces



P

luego

PQ =
n

i=p+1

i
y

PQ

=
n

i=p+1
(
i

i
)

i
tambien esta en L

. Pero

PQ =

PP

Q luego

PQ

S luego debe ser


el vector

0 puesto que L

S =

0 de donde

PQ =

P

. Todas las perpendiculares


comunes son paralelas y de igual longitud.
Tambien se deduce que

PP

Q =

0 luego

PP

=

QQ

. Pero

PP

L
1
,

QQ

L
2
luego

PP

=

QQ

L
1
L
2
.
A la inversa, sea L
1
L
2
, sean P

M
1
, Q

M
2
tales que

PP

= ,

QQ

= .
Como

PP

L
1
,

QQ

L
2
y

PP

=

QQ

= se tiene que

PQ =

P

luego

P

es
una perpendicular com un.
Sean P y Q, P M
1
, Q M
2
tales que

PQ es una perpendicular com un. Sea
D = L
1
L
2
, sea D. Si P

M
1
es tal que

PP

= , Q

M
2
es tal que

QQ

L
2
entonces

tambien es una perpendicular com un y todas se obtienen de esta manera.


Volvamos atras, si P
0
M
1
, Q
0
M
2
,

P
0
Q
0
=
n

i=1

i
y P y Q fueron obtenidos de
modo que

PQ fuese una perpendicular com un entonces

PQ =
n

i=p+1

i
luego P
0
Q
0

PQ y como todas las perpendiculares comunes tienen igual longitud, la longitud de
cualquiera de ellas es la distancia mas corta entre M
1
y M
2
. Para que exista igualdad
necesariamente
i
= 0, i = 1, 2, . . . , s, luego

P
0
Q
0
L

y es una perpendicular com un.


Se concluye que un segmento que conecta un punto P
0
M
1
, con un punto Q
0
M
2
es la distancia mas corta entre M
1
y M
2
si y solo si

P
0
Q
0
es una perpendicular com un
entre M
1
y M
2
.
110 CAP

ITULO 6. SISTEMAS DE COORDENADAS


Captulo 7
Movimientos Rgidos
En el espacio euclidiano R
n
consideremos transformaciones f : R
n
R
n
tales que si
f(P) = P

, f(Q) = Q

entonces P

= PQ. Diremos que una tal transformacion es


un movimiento rgido.
Sean P

= f(P), Q

= f(Q), R

= f(R). Como

QR =

QP +

PR

QR

QR =

QP

QP + 2

QP

PR +

PR

PR.
Como

QP

QP =

PQ

PQ,

QR

QR = |

QR|
2
= |

PQ|
2
2

PQ

PR +|

PR|
2
luego

PQ

PR =
1
2
(|

PQ|
2
+|

PR|
2
|

QR|
2
), de manera analoga

=
1
2
(|

|
2
+|

|
2
|

|
2
)
y como f es un movimiento rgido se tiene que

PQ

PR =

P

El producto escalar es invariante frente a movimientos rgidos.


Sea [O;

1
,

2
, . . . ,

n
] un sistema de coordenadas cartesianas en R
n
. Sea

OP
i
=

i
, i =
1, 2, . . . , n, sea f un movimiento rgido, sean O

= f(O), P

i
= f(P
i
), i = 1, 2, . . . , n,

i
=

i
, i = 1, 2, . . . , n. Entonces

k
=

O

k
=

OP
i

OP
k
=

k
=
ik
Se concluye que [O

1
,

2
, . . . ,

n
] es un sistema de coordenadas cartesianas en R
n
.
Sea P R
n
, sean x
1
, x
2
, . . . , x
n
sus coordenadas con respecto a [O;

1
,

2
, . . . ,

n
],
sean x

1
, x

2
, . . . , x

n
las coordenadas de P

en [O

1
,

2
, . . . ,

n
]. Entonces

OP =
n

i=1
x
i

i
,

=
n

i=1
x

i
111
112 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
x
i
=

OP

i
=

OP

OP
i
x

i
=

O

i
=

O

i
luego x
i
= x

i
.
Demostremos que un movimiento rgido es 1-1 y sobre. Sea Q

R
n
, sean y
1
, y
2
,
. . . , y
n
sus coordenadas en [O

1
,

2
, . . . ,

n
]. Si Q tiene coordenadas y
1
, y
2
, . . . , y
n
en [O;

1
,

2
, . . . ,

n
] entonces f(Q) = Q

. Si P tiene coordenadas x
1
, x
2
, . . . , x
n
en
[O;

1
,

2
, . . . ,

n
] y f(P) = Q

entonces x
i
= y
i
, i = 1, 2, . . . , n y P = Q.
Sean [O;

1
,

2
, . . . ,

n
], [O

1
,

2
, . . . ,

n
] dos sistemas arbitrarios de coordenadas
cartesianas.
Sea f : R
n
R
n
denida por: sea P un punto cuyas coordenadas cartesianas en el
primer sistema son x
1
, x
2
, . . . , x
n
, sea P

el punto cuyas coordenadas en el segundo


sistema son x
1
, x
2
, . . . , x
n
, denimos f(P) = P

.
Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema son
y
1
, y
2
, . . . , y
n
. Entonces
PQ =

_
n

i=1
(y
i
x
i
)
2
Pero Q

= f(Q) tiene coordenadas y


1
, y
2
, . . . , y
n
en el segundo sistema y
P

_
n

i=1
(y
i
x
i
)
2
entonces PQ = P

, f es un movimiento rgido.
Teorema 7.1 Sea f un movimiento rgido, M una variedad lineal de dimension p.
Entonces f(M) es una variedad lineal de dimension p.
Demostracion: Sea [O;

1
,

2
, . . . ,

n
] un sistema de coordenadas cartesianas, en tal
sistema M se representa mediante un sistema lineal de ecuaciones cuya matriz tiene
rango np. Sea [O

1
,

2
, . . . ,

n
] el sistema de coordenadas cartesianas obtenido de
[O;

1
,

2
, . . . ,

n
] tomando O

= f(O) y si P
i
es tal que

OP
i
=

i
entonces

i
=

i
,
i = 1, 2, . . . , n. Si P M y tiene coordenadas x
1
, x
2
, . . . , x
n
en el primer sistema,
por lo visto previamente tiene coordenadas x

1
, x

2
, . . . , x

n
en el segundo sistema con
x

i
= x
i
y por lo tanto P

= (x

1
, x

2
, . . . , x

n
) satisface el mismo sistema de ecuaciones
con respecto a [O

1
,

2
, . . . ,

n
].
Nota: Sean M
1
, M
2
variedades lineales con espacios generadores L
1
, L
2
. Debemos
recordar que si M
1
M
2
,= entonces M
1
M
2
es la variedad lineal obtenida de aplicar
L
1
L
2
en un punto P
0
M
1
M
2
.
Teorema 7.2 Sea f un movimiento rgido, M
1
, M
2
variedades lineales. Sea D =
M
1
M
2
,= . Entonces D

= M

1
M

2
.
Demostracion: Sea P D, entonces P

1
, P

2
luego P

1
M

2
luego D

1
M

2
. Sea P

1
M

2
, hay un unico P tal que f(P) = P

y
P M
1
M
2
luego P

y M

1
M

2
D

.
113
Nota: Si D = entonces D

= . En efecto, si P

habra P tal que f(P) = P

y ademas P D, esto no puede ser.


Si M
1
M
2
, D = M
1
, D

= M

1
luego M

1
M

2
.
Sea f un movimiento rgido, sea V
n
. Sea P R
n
, hay Q R
n
tal que =

PQ,
denamos F : V
n
V
n
por F( ) =

P

.
Queremos demostrar que F es independiente de la eleccion de P. Sea P
1
arbitrario,
sea Q
1
tal que =

P
1
Q
1
. Consideremos un sistema de coordenadas cartesianas
[O;

1
,

2
, . . . ,

n
], sea [O

1
,

2
, . . . ,

n
] tal como antes. Los puntos P

, Q

, P

1
,
Q

1
tienen las mismas coordenadas en [O

1
,

2
, . . . ,

n
] que P, Q, P
1
, Q
1
tienen en
[O;

1
,

2
, . . . ,

n
] luego los vectores

P

y

P

1
Q

1
tienen las mismas componentes en
el sistema [O

1
,

2
, . . . ,

n
] que los vectores

PQ y

P
1
Q
1
tienen en [O;

1
,

2
, . . . ,

n
].
Como

PQ =

P
1
Q
1
entonces

P

=

P

1
Q

1
luego F esta bien denida.
Si F(
1
) = F(
2
),
1
y
2
tienen las mismas componentes en [O;

1
,

2
, . . . ,

n
] luego

1
=
2
. Es claro que F es sobre. Diremos que f induce la transformacion F en V
n
.
Problema: Sea [O;

1
,

2
, . . . ,

n
] un sistema de coordenadas jo, sea P un punto de
coordenadas x
1
, x
2
, . . . , x
n
con respecto a este sistema. Sea f un movimiento rgido.
Se piden las coordenadas de P

.
Sabemos que P

tiene coordenadas x
1
, x
2
, . . . , x
n
en [O

1
,

2
, . . . ,

n
]. Sean

OO

=
n

i=1
t
i

k
=
n

i=1
a
ik

i
Si P

tiene coordenadas y
1
, y
2
, . . . , y
n
en [O;

1
,

2
, . . . ,

n
] entonces
y
i
= t
i
+
n

k=1
a
ik
x
k
i = 1, 2, . . . , n
y ademas (a
ik
) es matriz ortogonal.
A la inversa, consideremos el sistema lineal
y
i
= t
i
+
n

i=1
a
ik
x
k
i = 1, 2, . . . , n (7.1)
donde x
1
, x
2
, . . . , x
n
representan las coordenadas de P en un cierto sistema de coorde-
nadas cartesianas [O,

1
,

2
, . . . ,

n
]. Si interpretamos (7.1) como una transformacion
f tal que f(P) es el punto P

cuyas coordenadas y
1
, y
2
, . . . , y
n
estan dadas por (7.1)
entonces, si (a
ik
) es ortogonal, f es un movimiento rgido.
En efecto, sea Q otro punto de coordenadas x

1
, x

2
, . . . , x

n
, sea Q

de coordenadas y

1
,
114 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
y

2
, . . . , y

n
donde Q

= f(Q). Entonces
y

i
y
i
=
n

k=1
a
ik
(x

k
x
k
) i = 1, 2, . . . , n
(y

i
y
i
)
2
=
_
n

k=1
a
ik
(x

k
x
k
)
_
2
=
n

k=1
n

j=1
a
ik
a
ij
(x

k
x
k
)(x

j
x
j
) i = 1, 2, . . . , n
Sumemos las n ecuaciones:
n

i=1
(y

i
y
i
)
2
=
n

i=1
n

k=1
n

j=1
a
ik
a
ij
(x

k
x
k
)(x

j
x
j
)
=
n

k=1
n

j=1
_
n

i=1
a
ik
a
ij
_
(x

k
x
k
)(x

j
x
j
)
=
n

k=1
n

j=1

kj
(x

k
x
k
)(x

j
x
j
) =
n

k=1
(x

k
x
k
)
2
luego PQ
2
= P

2
.
Si det(a
ik
) = 1, (7.1) se dice un movimiento rgido propio, si det(a
ik
) = 1 se dice
impropio.
Consideremos la transformacion inducida por (7.1) en V
n
. Queremos calcular las com-
ponentes de f( ) a partir de las componentes de . Pero las componentes de

PQ son
x

k
x
k
, k = 1, 2, . . . , n, y las de

P

son y

i
y
i
luego ya tenamos que
y

i
y
i
=
n

k=1
a
ik
(x

k
x
k
)
Si llamamos u
i
a las componentes de y u

i
a las componentes de

= F( ) se tiene
u

i
=
n

k=1
a
ik
u
i
i = 1, 2, . . . , n
Sea A
ik
el adjunto de a
ik
en det(a
ik
), volviendo a (7.1) se tiene, por la regla de Cramer
que
x
i
=
1
det(a
ik
)
n

k=1
A
ki
(y
k
t
k
) i = 1, 2, . . . , n (7.2)
(7.2) tambien dene una transformacion. Si P

es la imagen de P seg un (7.1) entonces


P es la imagen de P

seg un (7.2), luego la transformacion denida por (7.2) es la


inversa de la transformacion denida por (7.1). Ademas como (a
ik
) es ortogonal se
tiene que a
jh
=
A
jh
det(a
ik
)
.
7.1. MOVIMIENTOS R

IGIDOS EN R
2
115
Nota: Vimos que un movimiento rgido deja invariante al producto escalar, pero
para demostrarlo representamos ambos vectores con el mismo punto inicial. Queremos
hacer ver que esta restriccion es superua. Sean ,

arbitrarios,

fueron
denidos independientemente de su punto inicial. Tomemos =

PQ, =

PR entonces

=

P

=

P

y

=

.
Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i.

1
,

2
, . . . ,

n
, sean

1
,

2
, . . . ,

n
sus imagenes seg un un movimiento rgido. Sea P
el punto a partir del cual se genera el paralelotopo, sea P

su imagen, aplicando
los vectores
n

i=1

i
, 0
i
1 a partir de P

se obtiene un nuevo paralelotopo,


llamemoslo la imagen del paralelotopo original seg un el movimiento rgido. Si

i
tiene
componentes u
i1
, u
i2
, . . . , u
in
en el sistema cartesiano [O;
1
,
2
, . . . ,
n
],

i
tiene las
mismas componentes en [O

1
,

2
, . . . ,

n
]. El volumen del paralelotopo original es
[ det(u
ik
)[. El volumen del paralelotopo cuyas aristas son

1
,

2
, . . . ,

n
puede ser
evaluado de la misma manera en terminos de los componentes de los vectores

i
en el
sistema [O

1
,

2
, . . . ,

n
]. Pero dichas componentes son iguales a las de los vectores

i
en el sistema [O;
1
,
2
, . . . ,
n
], luego este segundo volumen es igual al original. El
volumen de un paralelotopo es invariante frente a movimientos rgidos.
Que sucede con det(u
ik
) si las u
ik
son reemplazadas por las componentes de los

i
en el mismo sistema de coordenadas [O;
1
,
2
, . . . ,
n
]?
Supongamos que tales componentes son u

i1
, u

i2
, . . . , u

in
. Sabemos que
u

ik
=
n

=1
a
k
u
i
i, k = 1, 2, . . . , n
det(u

ik
) = det
_
n

=1
u
i
a
k
_
= det(u
ik
) det(a
ik
)
Como det(a
ik
) = 1,
det(u

ik
) = det(u
ik
).
7.1. Movimientos rgidos en R
2
En un sistema de coordenadas cartesianas un movimiento rgido f esta dado por
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
donde (a
ik
) es ortogonal, y para las componentes de los vectores se tiene
u

1
= a
11
u
1
+a
12
u
2
u

2
= a
21
u
1
+a
22
u
2
Un vector se dice invariante bajo f si f( ) = . Es claro que

0 es invariante bajo
f. Nos preguntamos si existe alg un otro vector invariante. Si es que lo hay debe darse
que
u
1
= a
11
u
1
+a
12
u
2
u
2
= a
21
u
1
+a
22
u
2

(a
11
1)u
1
+a
12
u
2
= 0
a
21
u
1
+ (a
22
1)u
2
= 0
(7.3)
116 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
luego para que alg un vector distinto de cero sea invariante, la matriz
_
(a
11
1) a
12
a
21
(a
22
1)
_
debe tener rango R menor que 2.
Caso 1: R = 0. Todos los vectores de V
2
son soluciones de (7.3), a
11
= a
22
= 1,
a
12
= a
21
= 0, luego la matriz (a
ik
) es
_
1 0
0 1
_
, det(a
ik
) = 1, y las ecuaciones que
denen a f son de la forma
y
1
= t
1
+x
1
y
2
= t
2
+x
2
Si O = (0, 0), O

= (t
1
, t
2
), el movimiento rgido es una traslaci on en

OO

; si
t
1
= t
2
= 0, f es la identidad.
Caso 2: R = 1.
0 =

a
11
1 a
12
a
21
a
22
1

= det(a
ik
) + 1 a
11
a
22
y alg un elemento de
_
a
11
1 a
12
a
21
a
22
1
_
es distinto de cero.
Si det(a
ik
) = 1 entonces a
11
+a
22
= 2, pero como
a
2
11
+a
2
12
= 1
a
2
21
+a
2
22
= 1
ning un a
ik
puede ser tal que [a
ik
[ > 1 y a
11
+a
22
= 2 se cumple solo si a
11
= a
22
= 1. En
tal caso a
12
= a
21
= 0 y estamos en el caso 1. Entonces es necesario que det(a
ik
) = 1.
Pero si det(a
ik
) = 1, como a
11
=
A
11
det(a
ik
)
y A
11
= a
22
se tiene a
11
= a
22
y entonces
det(a
ik
) + 1 a
11
a
22
= 0 y (a
ik
) tiene rango 1. Luego el caso 2 puede suceder si y
solo si det(a
ik
) = 1.
En tal caso tenemos un subespacio invariante de dimension 1. Sea

1
un vector unitario
que es base de este subespacio y extendemos a una base ortonormal

1
,

2
de R
2
. Sea
Q arbitrario, escribamos las ecuaciones de f en [Q;

1
,

2
]. Las nuevas ecuaciones son
de la forma
y
1
= t
1
+c
11
x
1
+c
12
x
2
y
2
= t
2
+c
21
x
1
+c
22
x
2
u

1
= c
11
u
1
+c
12
u
2
u

2
= c
21
u
1
+c
22
u
2
Pero

1
es vector invariante y en la base elegida u
1
= 1, u
2
= 0 luego
u
1
= c
11
u
1
+c
12
u
2
u
2
= c
21
u
1
+c
22
u
2

c
11
= 1
c
21
= 0
Ademas
c
22
=
A
22
det(c
ik
)
=
c
11
1
luego c
22
= c
11
= 1
c
12
=
A
12
det(c
ik
)
=
c
21
1
luego c
12
= c
21
= 0
7.1. MOVIMIENTOS R

IGIDOS EN R
2
117
De lo dicho se desprende que las ecuaciones de f en el sistema [Q;

1
,

2
] deben ser de
la forma
y
1
= t
1
+x
1
y
2
= t
2
x
2
(7.4)
Sea Q
1
tal que su coordenada x
1
en [Q;

1
,

2
] es arbitraria pero x
2
=
1
2
t
2
. Por (7.4),
Q

1
tiene y
2
=
1
2
t
2
luego la segunda componente de

Q
1
Q

1
en tal sistema es 0. Como las
componentes de un vector son independientes del origen y dependen solo de la base,
el vector

Q
1
Q

1
tiene segunda componente igual a cero en el sistema [Q
1
;

1
,

2
]. Pero
en este sistema Q
1
tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q

1
en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q
1
;

1
,

2
],
si x
1
= x
2
= 0 necesariamente y
2
= 0 luego t
2
= 0. Se concluye que en el sistema
[Q
1
;

1
,

2
] las ecuaciones de f deben ser de la forma
y
1
= t
1
+x
1
y
2
= x
2
La ecuacion y
1
= t
1
+x
1
nos dice que cada punto del plano es trasladado en la direccion
del eje x
1
en [t
1
[ hacia la derecha o izquierda seg un t
1
> 0 o t
1
< 0 y despues se realiza
una reexion en el eje x
1
.
Caso 3: R = 2. El unico vector invariante es

0. Si det(a
ik
) = 1 estamos en el caso
2. Luego det(a
ik
) = 1. Como a
11
=
A
11
det(a
ik
)
, si a
11
= 1 entonces a
22
= A
11
= 1,
a
12
= a
21
= 0 y estamos en el caso 1. Luego a
11
,= 1.
A la inversa, si det(a
ik
) = 1 y a
11
,= 1 tenemos que estar en el caso 3 porque en el caso
1 se tiene a
11
= 1 y en el caso 2 se tiene det(a
ik
) = 1.
Supongamos que f tiene un punto jo (x
1
, x
2
) entonces
x
1
= t
1
+a
11
x
1
+a
12
x
2
x
2
= t
2
+a
21
x
1
+a
22
x
2
(a
11
1)x
1
+a
12
x
2
= t
1
a
21
x
1
+ (a
22
1)x
2
= t
2
Como el rango de la matriz del sistema es 2, el sistema tiene siempre una unica solu-
cion (x
1
, x
2
), sea Q(x
1
, x
2
) el punto jo, sea [Q;

1
,

2
] un sistema de coordenadas
cartesianas, la forma de f en este sistema es
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
Para x
1
= x
2
= 0 se tiene y
1
= y
2
= 0 luego t
1
= t
2
= 0. Como a
2
11
+a
2
21
= 1 sea tal
que a
11
= cos y pidamos 0 < < 2 ( = 0 no puede darse porque entonces R = 0)
a
22
=
A
22
det(a
ik
)
= a
11
= cos a
12
=
A
12
det(a
ik
)
= a
21
= sen
luego
y
1
= x
1
cos x
2
sen
y
2
= x
1
sen +x
2
cos
118 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
en el sistema [Q;

1
,

2
]. Entonces

1
va al vector

1
de componentes cos , sen y

2
va al vector

2
de componentes sen, cos luego [Q;

1
,

2
] va a [Q;

1
,

2
] despues
de una rotacion en el sentido trigonometrico positivo en torno a Q y angulo . Si P es
arbitrario, P

tiene las mismas coordenadas en [Q;


1
,

2
] que P tiene en [Q;

1
,

2
].
Podemos concluir que P

se obtiene de P por una rotacion en torno a Q y de angulo .


Nota: det(a
ik
) debe tener el mismo valor en todos los sistemas de coordenadas ante-
riores, porque su valor esta determinado por la dimension del subespacio de vectores
invariantes, dimension que es independiente de la eleccion del sistema de coordenadas.
7.2. Movimientos rgidos en R
3
En un sistema cartesiano cualquiera, las ecuaciones de f son
y
i
= t
i
+
3

k=1
a
ik
x
k
i = 1, 2, 3 ,
(a
ik
) matriz ortogonal, det(a
ik
) = 1.
Consideremos primero el caso det(a
ik
) = 1. Si el vector de componentes u
1
, u
2
, u
3
es
invariante entonces
u
i
=
3

k=1
a
ik
u
i
luego u
1
, u
2
, u
3
deben ser soluciones del sistema
(a
11
1)u
1
+a
12
u
2
+a
13
u
3
= 0
a
21
u
2
+ (a
22
1)u
2
+a
23
u
3
= 0
a
31
u
1
+a
32
u
2
+ (a
33
1)u
3
= 0
(7.5)

a
11
1 a
12
a
13
a
21
a
22
1 a
23
a
31
a
32
a
33
1

= det(a
ik
) A
11
A
12
A
13
+a
11
+a
22
+a
33
1
Como det(a
ik
) = 1, a
ik
= A
ik
luego el determinante vale cero. El rango de la matriz
de (7.5) es a lo mas dos luego la dimension del subespacio de vectores invariantes es
al menos uno.
Queremos demostrar que si det(a
ik
) = 1 la dimension de tal subespacio puede ser 1
o 3 pero nunca puede ser 2.
Supongamos que es 2, entonces el rango de la matriz de (7.5) es a lo mas 1 y todos
sus menores de 2 2 son cero, en particular

a
11
1 a
12
a
21
a
22
1

= A
33
a
11
a
22
+ 1 = 0

a
11
1 a
13
a
31
a
33
1

= A
22
a
11
a
33
+ 1 = 0

a
22
1 a
23
a
32
a
33
1

= A
11
a
22
a
33
+ 1 = 0
7.2. MOVIMIENTOS R

IGIDOS EN R
3
119
Sumando las dos primeras ecuaciones y recordando que a
ik
= A
ik
se obtiene 2a
11
+
2 = 0, a
11
= 1. De manera analoga a
22
= a
33
= 1. De la ortogonalidad de (a
ik
) se
obtiene a
ik
= 0, i ,= k, luego todos los coecientes en (7.5) son cero, la dimension del
espacio invariante es 3, todos los vectores en V
3
son invariantes.
Consideremos ahora el caso det(a
ik
) = 1, existe alg un vector que va a ?
Entonces, si las componentes de son u
1
, u
2
, u
3
debe tenerse que u

i
= u
i
, i = 1, 2, 3
y deben ser soluciones de
(a
11
+ 1)u
1
+a
12
u
2
+a
13
u
3
= 0
a
21
u
2
+ (a
22
+ 1)u
2
+a
23
u
3
= 0
a
31
u
1
+a
32
u
2
+ (a
33
+ 1)u
3
= 0
y el determinante de la matriz del sistema vale
det(a
ik
) +A
11
+A
22
+A
33
+a
11
+a
22
+a
33
+ 1
y como det(a
ik
) = 1 y a
ik
= A
ik
el determinante se anula.
El subespacio de soluciones tiene al menos dimension 1. Probaremos que tal dimension
es 1 o 3. Supongamos que tiene dimension 2, entonces todos los menores de 2 2 de
la matriz del sistema deben ser cero, en particular los principales (a lo largo de la
diagonal principal). Se obtiene a
11
= a
22
= a
33
= 1 y a
ik
= 0 si i ,= k, todos los
coecientes se anulan y todo V
3
es invariante.
Sea p la dimension del subespacio de vectores invariantes, q la dimension del subespa-
cio de vectores que van a .
p y q estan denidos para todo movimiento rgido f independientemente si det(a
ik
) = 1
o det(a
ik
) = 1.
Los resultados coleccionados hasta ahora nos dicen que para cualquier f al menos una
de las siguientes ecuaciones se cumple:
i.- p = 1
ii.- p = 3
iii.- q = 1
iv.- q = 3
Demostraremos que para cualquier movimiento rgido en R
3
se cumple exactamente
una de las cuatro ecuaciones.
En efecto, ii) se cumple si y solo si todo V
3
es invariante, eso excluye a las otras.
Analogamente si iv) se cumple. Luego dos de ellas pueden cumplirse simultaneamente
solo si ii) y iv) no se cumplen, esto es, i) y iii) son las unicas alternativas que podran
darse juntas. Supongamos que es as, hay ,=

0 que es invariante y

,=

0 que va a

.
Es claro que y

son l.i. Consideremos el subespacio L de los vectores ortogonales a
y

. La dimension de L es 1. Sea e L, e ,=

0, sea e

su imagen. Entonces
e = e

= 0 e

= e

= 0 e

= e

) = 0
120 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
luego e

L, e

= e. Pero |e

| = |e|, entonces = 1. Como e, ,



son l.i., si
e = e

no es posible que p = 1 y si e = e

no es posible que q = 1.
Tenemos as los movimientos rgidos en R
3
divididos en cuatro clases mutuamente ex-
cluyentes, i) y ii) corresponden a det(a
ik
) = 1, iii) y iv) corresponden a det(a
ik
) = 1.
i.- p = 1. Sea

3
invariante, |

3
| = 1, extendamos a una base ortonormal

1
,

2
,

3
de R
3
, sea [Q;

1
,

2
,

3
] un sistema cartesiano, consideremos las ecuaciones de f
en tal sistema, sean ellas
y
i
= t
i
+
3

k=1
a
ik
x
k
i = 1, 2, 3
u

k
=
3

k=1
a
ik
u
i
k = 1, 2, 3
Como

3
es invariante, u

1
= u

2
= 0, u

3
= 1 luego a
13
= a
23
= 0, a
33
= 1 y de la
ortogonalidad de (a
ik
) obtenemos a
31
= a
32
= 0 luego
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
y
3
= t
3
+x
3
(7.6)
El determinante de la matriz del sistema es

a
11
a
12
0
a
21
a
22
0
0 0 1

a
11
a
12
a
21
a
22

De la ortonormalidad se tiene
a
2
11
+a
2
12
= 1
a
2
21
+a
2
22
= 1
Tambien a
11
a
21
+a
12
a
22
+a
13
a
23
= 0 luego a
11
a
21
+a
12
a
22
= 0.
Como det(a
ik
) = 1,

a
11
a
12
a
21
a
22

= 1 luego
_
a
11
a
12
a
21
a
22
_
es ortogonal.
Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecua-
ciones denen un movimiento rgido en R
2
. Ademas no es posible tener a
11
=
a
22
= 1 porque en tal caso p = 3. Entonces este movimiento rgido en R
2
tiene un
punto jo, esto es, hay x
1
, x
2
que satisfacen y
1
= x
1
, y
2
= x
2
. Sea S R
3
cuyas
dos primeras coordenadas en [Q;

1
,

2
,

3
] son x
1
, x
2
. S

tiene entonces como


sus dos primeras coordenadas y
1
= x
1
, y
2
= x
2
y por lo tanto las dos primeras
componentes de

SS

son cero. Este resultado, aunque lo hemos obtenido usando


el sistema de coordenadas [Q;

1
,

2
,

3
], es independiente del origen y es vali-
do tambien en [S;

1
,

2
,

3
], luego S

tiene las mismas coordenadas que S en


7.2. MOVIMIENTOS R

IGIDOS EN R
3
121
este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto signica
que las dos primeras coordenadas tanto de S como de S

son cero. Dado que


las ecuaciones de f mantienen su forma aunque hayamos cambiado el sistema de
coordenadas, lo dicho sobre las coordenadas de S y S

visto en (7.6) nos dice que


las ecuaciones de f en [S,

1
,

2
,

3
] tienen la forma
y
1
= a
11
x
1
a
12
x
2
y
2
= a
21
x
1
+a
22
x
2
y
3
= t
3
+x
3
.
Como
_
a
11
a
12
a
21
a
22
_
es ortogonal, podemos determinar de manera unica un angu-
lo , 0 2, tal que a
11
= cos , a
21
= sen, a
12
= sen, a
22
= cos ,
luego en [S;

1
,

2
,

3
] las ecuaciones de f son
y
1
= x
1
cos x
2
sen
y
2
= x
1
sen +x
2
cos
y
3
= t
3
+x
3
Consideremos una recta paralela a

3
. Todos sus puntos tienen sus dos primeras
coordenadas x
1
, x
2
iguales, su interseccion con el plano x
1
, x
2
tiene coordenadas
x
1
, x
2
, 0. Buscamos

. Sea P de coordenadas x
1
, x
2
, x
3
. Las dos primeras
ecuaciones no dependen de x
3
luego todos los P

tienen la misma interseccion y


1
,
y
2
, 0 con el plano y
1
, y
2
, y las dos coordenadas y
1
, y
2
estan determinadas por las
dos primeras ecuaciones de (7.5) donde x
1
, x
2
son las dos primeras coordenadas
de la interseccion de con el plano x
1
, x
2
. Dicho en otras palabras,

queda com-
pletamente determinada una vez conocida la imagen de este punto interseccion.
Por otra parte, estas dos ecuaciones denen una rotacion de angulo en torno al
origen. Consideremos la rotacion en R
3
en torno al eje x
3
y de angulo , el punto
(x
1
, x
2
, 0) va al punto (y
1
, y
2
, 0)

luego va a

. Como es arbitraria,
esto es cierto para cualquier recta paralela a

3
. Nuestro movimiento rgido se
compone de una rotacion de R
3
en torno al eje x
3
de [S;

1
,

2
,

3
] seguida de
una traslacion en la direccion de dicho eje.
ii.- p = 3. Vimos que en cualquier sistema cartesiano det(a
ik
) vale 1 y que a
ik
=
ik
,
las ecuaciones adoptan la forma
y
1
= t
1
+x
1
y
2
= t
2
+x
2
y
3
= t
3
+x
3
lo cual representa una traslacion.
iii.- q = 1. En este caso det(a
ik
) = 1 en todo sistema de coordenadas cartesianas.
Sea
3
, |
3
| = 1 tal que
3
va a
3
, extendamos a una base ortonormal
1
,
2
,
3
,
escribamos las ecuaciones de f en [Q;
1
,
2
,
3
]. Sean u
1
, u
2
, u
3
las componentes
de
3
. Como
3

3
se tiene que u

1
= u

2
= 0, u

3
= 1 si u
1
= u
2
= 0 y
122 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
u
3
= 1. Pero esto es posible solo si a
13
= a
23
= 0 y a
33
= 1. Se tiene
y
1
= t
1
+a
11
x
1
+a
12
x
2
y
2
= t
2
+a
21
x
1
+a
22
x
2
y
3
= t
3
x
3
(7.7)
Sea R R
3
tal que su tercera coordenada es x
3
=
1
2
t
3
en [Q;
1
,
2
,
3
]. Entonces
R

tiene y
3
=
1
2
t
3
y la tercera componente de

RR

es 0. Tal como antes, su


tercera componente es 0 en [R;
1
,
2
,
3
], donde R tiene coordenadas (0, 0, 0)
luego y
3
= 0 cuando x
1
= x
2
= x
3
= 0, y por lo tanto t
3
= 0. El determinante
del sistema (7.7) es

a
11
a
12
a
21
a
22

= 1
luego
_
a
11
a
12
a
21
a
22
_
es ortogonal.
Si a
11
= 1 entonces a
22
= a
11
= 1 luego a
12
= a
21
= 0 y las ecuaciones (7.7)
adoptan la forma
y
1
= t
1
+x
1
y
2
= t
2
+x
2
y
3
= x
3
;
en este caso f consiste en una reexion en el plano x
1
, x
2
seguida de una traslacion
paralela a ese plano.
Si a
11
,= 1, hay dos n umeros x
1
, x
2
que sustitudos en las dos primeras ecuaciones
de (7.7) dan y
1
= x
1
, y
2
= x
2
. Sea S R
3
tal que sus dos primeras coordenadas
en [R;
1
,
2
,
3
] son x
1
, x
2
y tal que x
3
= 0. Entonces S

tiene coordenadas
y
1
= x
1
, y
2
= x
2
, y
3
= x
3
= 0 ya que t
3
= 0. Como S es punto jo de f,
x
1
= x
2
= x
3
= 0 entonces y
1
= y
2
= y
3
= 0 y nalmente t
1
= t
2
= t
3
= 0. Sean
a
11
= cos , a
21
= sen , a
12
= sen , a
22
= cos ,
en [S;
1
,
2
,
3
] las ecuaciones de f quedan
y
1
= x
1
cos x
2
sen
y
2
= x
2
sen +x
2
cos
y
3
= x
3
f es una reexion en el plano x
1
, x
2
seguida de una rotacion en torno al eje x
3
.
iv.- q = 3. det(a
ik
) = 1 en todo sistema cartesiano, a
11
= a
22
= a
33
= 1, a
ik
= 0
para i ,= k. Se tiene
y
1
= t
1
x
1
y
2
= t
2
x
2
y
3
= t
3
x
3
7.2. MOVIMIENTOS R

IGIDOS EN R
3
123
Sea Q R
3
con x
1
=
1
2
t
1
, x
2
=
1
2
t
2
, x
3
=
1
2
t
3
entonces Q

tiene las mismas


coordenadas que Q. Considere el sistema [Q;
1
,
2
,
3
] en este sistema x
1
= x
2
=
x
3
= 0 entonces y
1
= y
2
= y
3
= 0, y nalmente t
1
= t
2
= t
3
= 0. Entonces
y
1
= x
1
y
2
= x
2
y
3
= x
3
y f es una reexion en el origen.
124 CAP

ITULO 7. MOVIMIENTOS R

IGIDOS
Captulo 8
Problemas propuestos
1. Sean A y B matrices de m n. Diremos que B es equivalente por las con A
si B se obtiene de A mediante una sucesion nita de operaciones elementales la.
Sean
A =
_
_
_
_
1 2 0 1 5
1 1 1 2 1
3 0 1 1 2
4 4 2 1 0
_
_
_
_
, B =
_
_
_
_
1 0 1 0 2
0 1 1 1 1
4 2 3 1 0
1 0 1 0 1
_
_
_
_
Son A y B equivalentes por las?
2. Sea R matriz de m n. Diremos que R es reducida por las si se cumplen las
siguientes condiciones:
i. El primer elemento distinto de cero de una la no nula es igual a 1 (una la
nula es una la que consta solo de ceros).
ii. Toda columna que contiene al primer elemento no nulo de una la tiene
todos sus demas elementos iguales a cero.
Demuestre que toda matriz A de mn es equivalente por las a una matriz R
reducida por las. Encuentre todas las matrices de 3 3 reducidas por las.
3. Sea B una matriz de n p. Encuentre una matriz C de m p cuyas las sean
combinaciones lineales de las las de B. Demuestre que existe una matriz A de
mn tal que C = AB.
Enuncie y verique una proposicion similar para las columnas.
4. Sea E de mm. Diremos que E es elemental si se obtiene de la matriz identidad
de mm mediante una sola operacion elemental la. Sea e operacion elemental
la, sea A una matriz arbitraria de mn. Sea e(A) la matriz resultante de aplicar
e a A, sea e(I) la correspondiente matriz elemental. Demuestre que e(A) = e(I)A.
125
126 CAP

ITULO 8. PROBLEMAS PROPUESTOS


Sean A y B matrices de m n. Demuestre que B es equivalente por las con
A si y solo si B = PA donde P es un producto de matrices elementales de mm.
5. Sea A matriz invertible de orden n. Demuestre que A es equivalente por las a
la matriz identidad de orden n. Invente un algoritmo para calcular la inversa de
A. Materialice su invencion calculando la inversa de
A =
_
_
1 1 1
2 0 1
3 0 1
_
_
6. Sea A de n n. Demuestre que las siguientes propiedades son equivalentes.
i. A es invertible.
ii. A es equivalente por las a la identidad.
iii. A es un producto de matrices elementales.
iv. AX = 0 tiene solo la solucion trivial.
v. AX = Y tiene solucion para cada matriz Y .
7. Sea
A =
_
_
1 2 1 0
1 0 3 5
1 2 1 1
_
_
Encuentre una matriz R reducida por las equivalente por las a A y encuentre
P de 3 3 tal que R = PA.
8. a. Sea A de 2 1, B de 1 2. Demuestre que C = AB no es invertible.
b. Sea A de mn, demuestre que si A no es invertible hay B ,= 0 de n n tal
que AB = 0.
9. Sea R
n
el conjunto de las n-tuplas de n umeros reales y E
n
= R
n
con las deni-
ciones de suma y multiplicacion por un escalar.
Sean A = (a
1
, a
2
, . . . , a
n
), B = (b
1
, b
2
, . . . , b
n
) puntos de R
n
. Sean a, b las mismas
n-tuplas miradas como elementos de E
n
. Sea h : R
n
R
n
E
n
dada por
h[(A, B)] = b a. Diremos que el par (A, B) representa a b a y lo anotamos
como

AB; decimos que A es el punto inicial de

AB y B es su punto nal.
Demuestre que
i. Dado A R
n
, x E
n
, hay un unico B R
n
tal que el par (A, B) representa
a x.
ii. Si (A, B) representa a x, (B, C) representa a y, entonces (A, C) representa
a z = x +y.
iii. Si A R
n
entonces (A, A) representa a 0 E
n
.
iv. Si (A, B) representa a x entonces (B, A) representa a x.
v. Demuestre que si x E
n
entonces hay innitos pares (A, B) que lo repre-
sentan. De aqu en adelante, en lugar de escribir que (A, B) representa a
b a escribiremos

AB = b a.
127
vi. Sea real arbitrario. Demuestre que hay un unico punto P() R
n
tal
que

AP = (b a) y que si p() es la misma n-tupla que corresponde a P
mirada como elemento de E
n
entonces p() = a +(b a).
Llamaremos recta por A de direccion

AB al conjunto de puntos de R
n
a
1
+(b
1
a
1
), a
2
+(b
2
a
2
), . . . , a
n
+(b
n
a
n
) : R
n

Diremos que p() = a +(b a) es la ecuacion vectorial de la recta (la cual


tambien puede escribirse como

AP() =

AB ). Si C, D R
n
, llamaremos
segmento de recta CD al subconjunto de la recta por C y de direccion

CD
correspondiente a 0 1.
Demuestre que si A, B son puntos del segmento CD entonces AB CD.
Demuestre que la recta por A y direccion

AB es la misma que la original.
Sean a, b E
n
. Demuestre que a y b son l.d. si y solo si

AP
1
= a,

AP
2
= b
son tales que P
1
y P
2
estan sobre la misma recta en R
n
.
10. En E
5
sean
a
1
= (1, 0, 2, 1, 3)
a
2
= (0, 0, 1, 1, 1)
a
3
= (1, 1, 2, 0, 0)
i. Cual es la dimension de L(a
1
, a
2
, a
3
)?
ii. Esta (1, 0, 0, 0, 0) en L(a
1
, a
2
, a
3
)?
iii. Si es que dimL(a
1
, a
2
, a
3
) = 3, extienda a
1
, a
2
, a
3
a una base de E
5
.
11. En E
4
sean
a
1
= (3, 1, 1, 2)
a
2
= (4, 1, 2, 3)
a
3
= (10, 3, 0, 7)
a
4
= (1, 1, 7, 0)
Sea L
1
= L(a
1
, a
2
, a
3
, a
4
). Sean
b
1
= (2, 4, 3, 7)
b
2
= (5, 2, 2, 1)
Sea L
2
= L(b
1
, b
2
).
Encuentre dimL
1
, dimL
2
, dimL
1
L
2
, dim(L
1
+L
2
).
12. Sea L un subespacio de E
n
. Sea X = y E
n
: (xy) L, sea Z = y E
n
:
(z y) L. Demuestre que si X Z ,= entonces X = Z. Llamaremos a X
la clase del elemento x E
n
. Demuestre que si w X entonces la clase W del
elemento w es X. A los elementos de una clase los llamaremos representativos
128 CAP

ITULO 8. PROBLEMAS PROPUESTOS


de la clase. Sea E
n
/L el conjunto de las clases de X. Denimos combinacion
lineal de las clases X e Y a la siguiente clase: sean x X, y Y arbitrarios.
Llamaremos X +Y a la clase que contiene a x +y. Demuestre que la clase
denida es independiente de la eleccion de x X o y Y .
13. Sea h : E
n
E
n
/L denida por h(x) = X. Demuestre que h es sobre pero no
1-1. Demuestre que
h(x +z) = h(x) +h(z) x, z E
n
h(x) = h(x) x E
n
, R
14. Sea AX = B un sistema de n + 1 ecuaciones con n incognitas. Sea A = (a
ij
),
B = (B
i
) y supongamos que el determinante de la matriz que consiste de las
primeras n las de A es distinto de cero. Demuestre que el sistema tiene solucion
si y solo si det(c
ij
) = 0 donde la matriz (c
ij
) esta denida como: c
ij
= a
ij
si
1 i n + 1, 1 j n, c
i(n+1)
= b
i
, 1 i n + 1.
15. Sea
D =

2 5 0 1 3
1 0 3 7 2
3 1 0 5 5
2 6 4 1 2
0 3 1 2 3

Calcule el valor de D desarrollando por los menores de las las 2,3 y 5. Verique
que su valor es -1032.
16. Sea A una matriz de m n. Supongamos que un menor de orden r de A es
distinto de cero, r < mn(m, n), r > 0. Demuestre que A tiene al menos r las y
r columnas l.i.
17. Resuelva el sistema de ecuaciones lineales
(3 +i)z
1
iz
2
+ z
3
= 0
2z
1
+ iz
2
(1 i)z
3
= 0
(1 +i)z
1
+ 0 z
2
+ 2z
3
= 0
z
1
iz
2
+ (1 +i)z
3
= 0
iz
1
z
2
+ 3z
3
= 0
donde z
j
= x
j
+iy
j
, j = 1, 2, 3, sin separar parte real e imaginaria. Verique su
resultado resolviendo el sistema separando en parte real y parte imaginaria.
18. Estudie las soluciones del sistema
z
1
+ iz
1
+ z
3
= 1
iz
1
+ z
2
+ iz
3
= i
z
1
+ (1 i)z
2
+ z
3
= i
2
como una funcion de .
129
19. Sean

1
= 1, 1, 2, 0 ,

2
= 0, 1, 1, 0

3
= 2, 1, 0, 1 ,

4
= 1, 0, 1, 2
vectores en V
4
, sea Q = (1, 1, 1, 1) un punto en R
4
. Verique que [Q;

1
,

2
,

3
,

4
]
es un sistema de coordenadas en R
4
. Encuentre las coordenadas del punto P =
(0, 1, 1, 0) en dicho sistema. Cuales son las coordenadas de Q? Dado =
0, 1, 1, 0 V
4
, encuentre las componentes de con respecto al sistema de
coordenadas dado. Cuales son las componentes de

1
, y las de

1
+

2
? En-
cuentre la ley de transformacion de coordenadas para pasar del sistema dado a
[0; e
1
, e
2
, e
3
, e
4
] y viceversa. Encuentre las coordenadas de P en [O; e
1
, e
2
, e
3
, e
4
]
y verique que sus formulas son correctas. Cual es la ley de transformacion para
las componentes de los vectores? Encuentre las componentes de en [O; e
1
, e
2
, e
3
, e
4
]
y verique que su ley de transformacion es correcta.
20. Sean
1
=
1
2
,
3
2
, 1, 0,
2
= 0, 1, 0, 1 vectores en V
4
cuyas componentes
estan dadas en [O; e
1
, e
2
, e
3
, e
4
]. Sea P
0
R
4
de coordenadas (0, 3, 2, 0) en tal
sistema. Sea L el subespacio de V
4
generado por
1
y
2
. Encuentre todos los
puntos (x
1
, x
2
, x
3
, x
4
) R
4
que estan sobre la variedad lineal M obtenida de
copiar L en P
0
. Demuestre que el conjunto de soluciones del sistema
x
1
+x
2
x
3
x
4
= 1
x
1
x
2
+ 2x
3
+x
4
= 1
es exactamente tal variedad lineal.
Encuentre el subespacio L

de vectores ortogonales a L, luego encuentre un sis-


tema homogeneo cuyo espacio de soluciones es L y a continuacion encuentre un
sistema no homogeneo cuyo conjunto de soluciones sea el de los puntos de M.
Encuentre el sistema de ecuaciones que representa a M en el sistema [Q;

1
,

2
,

3
,

4
]
del ejercicio (19).
21. Sean

1
= 1, 1, 1, 1

2
= 2, 1, 1, 1

3
= 0, 1, 1, 1

4
= 0, 0, 1, 1
vectores en V
4
cuyas componentes estan dadas en la base estandar. Encuentre
el volumen del paralelotopo de aristas
1
,
2
,
3
,
4
. Con respecto al sistema
de coordenadas [Q;

1
,

2
,

3
,

4
] del ejercicio anterior, verique e interprete la
f ormula
det(a
ik
) = det(a

ik
) det(v
ik
) (Seccion 6.4)
130 CAP

ITULO 8. PROBLEMAS PROPUESTOS


Encuentre la formula para el producto escalar en la base

1
,

2
,

3
,

4
. Use el
metodo de Gram-Schmidt con el producto escalar en la base estandar para ob-
tener un sistema ortonormal de vectores

1
,

2
,

3
,

4
a partir de
1
,
2
,
3
,
4
,
y otro

1
,

2
,

3
,

4
a partir de

1
,

2
,

3
,

4
. Verique que la matriz de tran-
sicion del sistema

1
,

2
,

3
,

4
al sistema

1
,

2
,

3
,

4
es ortogonal. Exprese
los vectores
1
,
2
,
3
,
4
en el sistema

1
,

2
,

3
,

4
y verique e interprete la
formula
[ det(a
ik
)[ = [ det(a

ik
)[[ det(v
ik
)[
22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coorde-
nadas [O; e
1
, e
2
, e
3
, e
4
], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentre
la direccion de la recta perpendicular de P a M, el pie de la perpendicular en
M y la longitud de tal perpendicular por el metodo descrito en el libro (sin usar
el sistema de ecuaciones que representa a M).
Considere el hiperplano x
1
+x
2
+x
3
+x
4
= 1 y el punto P = (1, 1, 0, 0). Encuen-
tre la direccion, pie y longitud de la perpendicular de P al hiperplano. Encuentre
un vector ortogonal a M y al hiperplano dado.
23. Sea f : R
4
R
4
dada por
y
i
= t
i
+
4

k=1
a
ik
x
k
i = 1, 2, 3, 4
un movimiento rgido (las coordenadas se suponen dadas en [O; e
1
, e
2
, e
3
, e
4
].
Sean P
1
, P
2
, P
3
, P
4
tales que

OP
i
= e
i
i = 1, 2, 3, 4, O

= f(O), P

i
= f(P
i
) i =
1, 2, 3, 4. Verique que la matriz (a
ij
) es ortogonal. Sea e

i
=

O

i
i = 1, 2, 3, 4,
sea P = (x
1
, x
2
, x
3
, x
4
). Encuentre las coordenadas de P en el sistema de coorde-
nadas [O

; e

1
, e

2
, e

3
, e

4
]. Cual es la ecuacion del hiperplano x
1
+x
2
+x
3
+x
4
= 1
en el segundo sistema?
Bibliografa
[1] Lectures on Linear Algebra, Gelfand I. M., New York, Interscience (1961).
[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).
[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,
New York, Chelsea.
[4] Linear Algebra, Shilov G. E., Engelwood Clis, N. J., Prentice Hall (1961).
[5] Linear Algebra and Multi-dimensional Geometry, Emov N. V. - Rozendorn E.
R., Mir Publishers (1975).
131

Indice alfabetico
R
n
, 29
n-tupla, 2, 29

Angulo entre vectores, 85


Adjunto de un menor, 21
Base, 34
Base estandar, 35, 65
Coecientes, 1
Combinacion lineal, 1, 30
Compatibilidad de sistemas homogeneos,
51
Compatibilidad de sistemas no homogeneos,
46
Componentes, 29, 63, 92
Componentes con respecto a una base, 35
Consideraciones sobre geometra analtica,
79
Construccion de sistemas ortonormales, 104
Coordenadas, 91
Deformacion continua de sistemas de co-
ordenadas, 100
Delta de Kronecker, 36, 59, 98
Dependencia lineal, 30
Desigualdad de Cauchy-Schwarz, 83
Desigualdad triangular, 84
Determinante, 8, 11, 12
Desarrollo por adjuntos, 22
Propiedades, 13
Dimension, 34
Dimension de un subespacio, 66, 68
Distancia, 83
Distancia a una variedad lineal, 105
Ecuacion lineal con n incognitas, 1
Ecuacion lineal homogenea, 1
Espacio eucldeo n-dimensional, 83
Espacio vectorial n-dimensional, 29
Independencia lineal, 30
Inversion, 9
l.d., 31
l.i., 31
Linealmente dependientes, 30
Linealmente independientes, 30
Longitud de un segmento, 83
Longitud de un vector, 83
Metodo de eliminacion de Gauss, 3
Matrices
Igualdad, 55
Inverso aditivo, 55
Matriz nula, 55
Producto de matrices, 56
Producto por un n umero escalar, 55
Suma de matrices, 55
Matrices elementales, 125
Matrices equivalentes, 43
Matrices equivalentes por las, 125
Matriz adjunta, 59
Matriz ampliada, 46
Matriz diagonal, 43
Matriz inversa, 60
Matriz reducida por las, 125
Matriz singular, 58
Matriz traspuesta, 12, 59
Matriz triangular
inferior, 23
superior, 23
Menor de un determinante, 19
Menor complementario, 20
Menor de una matriz, 39
Menor orlado, 39
Movimiento rgido, 111
Movimientos rgidos en R
2
, 115
Movimientos rgidos en R
3
, 118
Movimientos rgidos y producto escalar,
111
Movimientos rgidos y variedades lineales,
112
132

INDICE ALFAB

ETICO 133
Mutuamente ortogonales, 65
Norma, 83
Origen de un sistema de coordenadas, 91
Ortogonalidad, 65, 85
Ortonormalizacion de Gram-Schmidt, 104
Paralel ogramo, 86
lados del, 86
Paraleleppedo, 86
aristas del, 86
Paralelotopo, 86
aristas del, 86
Permutacion, 8
Impar, 9
Par, 9
Permutacion natural, 8
Producto de determinantes, 56
Producto escalar, 64
Proyeccion ortogonal, 105
Puntos, 63
Rango de un sistema de vectores, 37
Rango de una matriz, 38
Rango columna, 38
Rango la, 38
Recta, 63, 127
Reexion, 117
Reexion con respecto a un plano, 122
Reexion con respecto al origen, 123
Regla de Cramer, 8, 25
Rotacion, 118
Rotacion en torno a un eje, 121, 122
Segmento, 63
dirigido, 63
Punto nal, 63
Punto inicial, 63
Puntos extremos, 63
Sistema afn de coordenadas, 73
Sistema de coordenadas, 91
Sistema de coordenadas cartesianas, 98
Sistema de ecuaciones compatible, 2
Sistema de ecuaciones compatible deter-
minado, 2, 5
Sistema de ecuaciones compatible indeter-
minado, 2, 5
Sistema de ecuaciones incompatible, 2, 4
Sistema fundamental de soluciones, 51
Sistema homogeneo de ecuaciones lineales,
2, 6
Sistema linealmente independiente maxi-
mal, 32
Sistema ortonormal de vectores, 98
Sistemas de coordenadas, 91
Sistemas de ecuaciones equivalentes, 2
Sistemas de vectores equivalentes, 34
Solucion de un sistema de ecuaciones line-
ales, 2
Solucion de una ecuacion lineal, 1
Subespacio, 65
Subespacio de soluciones de un sistema
homogeneo, 79
Subespacio generado por un conjunto de
vectores, 65
Suma de subespacios, 68
Sustitucion, 10
Impar, 10
par, 10
Termino libre, 1
Teorema de Laplace, 23
Transformacion de coordenadas, 93
Transformaciones elementales de una ma-
triz, 42
Transposicion, 8
Traslacion, 121
Vandermonde
Determinante de, 18
Matriz de, 18
Variedad lineal, 72
Variedades lineales paralelas, 74
Variedades lineales y sistemas de ecuaciones,
95
Vectores, 29, 63
Diferencia de vectores, 30
Inverso aditivo, 29, 64
Producto por un n umero escalar, 30,
64
Propiedades, 63
Suma de vectores, 29, 64
Vector nulo, 29, 63
Vol umenes y sistemas de coordenadas carte-
sianas, 97
Volumen de un paralelotopo n-dimensional,
86, 89

Potrebbero piacerti anche