Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Lineal y Geometra
Grado en Fsica
Notas de teora
Temas 1-4
Departamento de Algebra,
Universidad de Sevilla
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Indice general
1. Matrices y sistemas de ecuaciones
1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . .
1.2. Sistemas compatibles, incompatibles, determinados...
1.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . .
gaussiana . . . . . . . . . . . . . . . . . .
1.4. Eliminacion
1.5. Algebra
matricial . . . . . . . . . . . . . . . . . . . . .
1.6. Matrices elementales. Matriz inversa . . . . . . . . . .
1.7. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Determinantes . . . . . . . . . . . . . . . . . . . . . . .
1.9. Determinantes: desarrollo por filas y columnas . . . .
1.10. Submatrices. El metodo del orlado . . . . . . . . . . .
1.11. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . .
2. Espacios vectoriales
y ejemplos
2.1. Espacios vectoriales: Definicion
2.2. Dependencia e independencia lineal . . . .
2.3. Sistemas generadores y bases . . . . . . . .
. . . . . . . . . . . . . . . . . . .
2.4. Dimension
2.5. Coordenadas . . . . . . . . . . . . . . . . . .
2.6. Subespacios . . . . . . . . . . . . . . . . . .
2.7. Operaciones entre subespacios . . . . . . .
2.8. Suma directa . . . . . . . . . . . . . . . . . .
2.9. Producto escalar . . . . . . . . . . . . . . . .
2.10. Bases ortonormales . . . . . . . . . . . . . .
3. Homomorfismos de espacios vectoriales
y ejemplos
3.1. Homomorfismos: definicion
3.2. Nucleo
e imagen . . . . . . . . . . . . .
3.3. Isomorfismos . . . . . . . . . . . . . . .
3.4. Espacio dual . . . . . . . . . . . . . . . .
3.5. Autovalores y autovectores . . . . . . .
. . . . . . . . . . . . . .
3.6. Diagonalizacion
3.7. Teoremas espectrales . . . . . . . . . . .
4. Espacio afn y eucldeo
4.1. Espacio afn . . . . . . . . .
4.2. Variedades lineales . . . . .
4.3. Sistemas de referencia . . .
4.4. Operaciones con variedades
4.5. Espacio eucldeo . . . . . . .
4.6. Aplicaciones afines . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento3de Algebra.
http://departamento.us.es/da/da.html
.
.
.
.
.
.
.
.
.
.
.
5
5
7
9
12
13
17
19
22
26
28
30
.
.
.
.
.
.
.
.
.
.
33
33
35
37
39
41
43
46
48
50
55
.
.
.
.
.
.
.
57
57
60
62
64
65
67
70
.
.
.
.
.
.
75
75
77
79
80
82
84
INDICE GENERAL
4
4.7.
4.8.
4.9.
4.10.
Afinidades . . . . . . . . . . . . . . . . .
Movimientos . . . . . . . . . . . . . . . .
de movimientos en A2 (R) .
Clasificacion
de movimientos en A3 (R) .
Clasificacion
A. Resultados auxiliares
A.1. Aplicaciones . . . . . . . . . . . . . . .
A.2. Operaciones y estructuras algebraicas
A.3. Polinomios . . . . . . . . . . . . . . . .
A.4. Numeros
complejos . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
.
.
.
.
87
90
92
94
.
.
.
.
99
99
100
102
103
Tema 1
Matrices y sistemas de ecuaciones
1.1.
los numeros
reales R o el conjunto de los numeros
complejos C. Mas generalmente, la teora
es valida siendo k un cuerpo cualquiera. Los elementos de k se denominaran escalares.
Definicion
1.2 Un sistema de ecuaciones lineales en n variables con coeficientes en k es conjunto de m 1 ecuaciones lineales en n variables
a11 x1 + a12 x2 + + a1n xn = b1
..
.
am1 x1 + am2 x2 + + amn xn = bm
1
Una n-upla es un conjunto ordenado de n elementos de k: por ejemplo, (1, 4, 3, 2) es una 4-upla de elementos
de R distinta de (1, 3, 2, 4). El conjunto de n-uplas de elementos de k se denota por k n .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento5de Algebra.
http://departamento.us.es/da/da.html
de dicho sistema es una n-upla de elementos de k que sea solucion de cada una de
Una solucion
las ecuaciones por separado. Un sistema se dice homogeneo si todas sus ecuaciones lo son, es
decir, si b1 = . . . = bm = 0.
Ejemplo
del sistema
La 3-upla (1, 1, 1) es solucion
x1 x2 + 2x3 = 2
x1 + x2 x3 = 1
de dicho sistema, puesto que no es solucion
de la
Sin embargo, (3, 1, 0) no es solucion
segunda ecuacion.
fundamental que se nos plantea es hallar
Dado un sistema de ecuaciones, la cuestion
el conjunto de todas sus soluciones. Para algunos sistemas, es facil hallarlas. Por ejemplo,
consideremos el sistema siguiente:
x1 2x2 + x3 = 1
x2 x3 = 3
2x3 = 4
(1.1)
que es (9, 5, 2). Este tipo de sistemas, en los que la primera variable que
una unica
solucion,
es distinta, se llamaran escalonados.
aparece con coeficiente no nulo en cada ecuacion
Consideremos ahora el siguiente sistema:
x1 2x2 + x3 = 1
x1 x2 = 4
x1 + x2 + 2x3 = 0
En este caso no podemos aplicar el mismo metodo que en el sistema anterior: no es posible averiguar el valor de ninguna de las variables a partir de una sola de las ecuaciones.
de la segunda y le sumamos e sta a la tercera,
Sin embargo, si restamos la primera ecuacion
volvemos a obtener el sistema anterior. Al realizar estas operaciones, esta claro que no cambiamos el conjunto de soluciones del sistema, ya que podemos recuperar el sistema original
de este ultimo
Definicion
1.3 Dos sistemas de ecuaciones en n variables se dicen equivalentes si tienen exactamente las mismas soluciones.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Ejemplo
Los sistemas
x1 2x2 + x3 = 1
x2 x3 = 3
2x3 = 4
y
x1 2x2 + x3 = 1
x1 x2 = 4
x1 + x2 + 2x3 = 0
Los sistemas
son equivalentes, ambos tienen a (9, 5, 2) como unica
solucion.
x1 2x2 + x3 = 1
x2 x3 = 3
2x3 = 4
y
x1 2x2 + x3 = 1
x2 x3 = 3
del segundo pero no del primero.
no son equivalentes, puesto que (7, 3, 0) es solucion
Dado un sistema de ecuaciones, podemos realizar una de las siguientes operaciones sobre e l, y obtendremos un sistema equivalente:
1. Intercambiar dos ecuaciones
por un escalar distinto de cero
2. Multiplicar una ecuacion
3. Sumarle un multiplo
de una de las ecuaciones a cualquier otra
Notese
que estas tres operaciones son reversibles: la primera puede deshacerse volviendo
por el escalar
a intercambiar las ecuaciones, la segunda multiplicando la misma ecuacion
a la segunda (es
inverso, y la tercera restandole el mismo multiplo
de la primera ecuacion
decir, sumarsela multiplicada por el opuesto del escalar). Llamaremos transformaciones elementales a estos tres tipos de operaciones realizadas sobre un sistema de ecuaciones.
En las proximas
secciones, veremos como
podemos transformar cualquier sistema en
transformaciones elementales, y como
1.2.
Definicion
1.4 Un sistema de ecuaciones lineales se dice compatible si tiene alguna solucion.
De lo contrario, se dice incompatible.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
esta condicion.
Ejemplo
Los sistemas
x1 + 2x2 3x3 = 0
x2 + x3 = 1
x3 = 4
y
x1 + x2 x4 = 0
x2 + 2x3 = 2
x4 = 1
son escalonados.
se llamara vaLa primera variable que aparezca con coeficiente no nulo en una ecuacion
riable pivote. El el primer ejemplo anterior, las variables pivote son x1 , x2 y x3 respectivamente. En el segundo ejemplo, las variables pivote son x1 , x2 y x4 .
no se verifica nunca,
modificar el numero
de soluciones. Por el contrario, si b 6= 0, la ecuacion
por lo que el sistema no puede tener soluciones. Dicho de otro modo, es incompatible.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.3. MATRICES
Definicion
1.5 Un sistema de ecuaciones lineales compatible se dice determinado si tiene
una unica
entonces a esta va2. Si alguna variable no aparece como pivote en ninguna ecuacion,
riable puede asignarsele cualquier valor en k. Diremos que esta variable es libre. Para
distinta del sistema. Por
cada posible valor que se le asigne, obtendremos una solucion
tanto, en este caso el sistema es indeterminado.
Ejemplo
Consideremos el sistema escalonado
x1 + x2 x4 = 0
x2 + 2x3 = 2
x4 = 1
el sistema es indeterminado.
Como la variable x3 no es pivote de ninguna ecuacion,
tomar un numero
infinito de valores).
1.3.
Matrices
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
(1.2)
10
importante son los coeficientes correspondientes a cada variable y los termila informacion
nos independientes. El resto de elementos que aparecen (las variables, los signos + e =)
sirven simplemente para recordarnos que papel juega cada escalar. Para poder realizar operaciones sobre el sistema de manera mas eficiente, extraeremos los datos importantes y los
rectangular de la siguiente forma:
colocaremos en una formacion
a11 a12
..
..
..
.
.
.
am1 am2
a1n
..
.
amn
b1
..
.
bm
Definicion
1.6 Una matriz m n sobre k es una tabla formada por mn elementos de k dispuestos en m filas y n columnas, escrita entre parentesis
..
..
...
A = ...
.
.
am1 am2
amn
Los elementos de la matriz A se denotan por aij , donde i y j indican, respectivamente, la fila y la
columna que ocupa el elemento dentro de la tabla.
El conjunto de todas las matrices de orden m n definidas sobre k se denota por Mmn (k)
Definicion
1.7 Una matriz fila (respectivamente matriz columna) es una matriz con una uni
ca fila (resp. con una unica
columna).
..
..
..
A = ...
.
.
.
am1 am2 amn
a11 a12
..
..
..
.
.
.
am1 am2
a1n
..
.
amn
b1
..
.
bm
Si el sistema es escalonado, su matriz ampliada tiene la propiedad de que el primer elemento distinto de cero en cada fila (a partir de la segunda) esta situado mas a la derecha que
el primer elemento distinto de cero en la fila anterior.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.3. MATRICES
11
Definicion
1.8 Una matriz A Mmn (k) esta en forma escalonada si cumple las dos condiciones siguientes
a) Si una fila de A contiene solo ceros, todas las filas por debajo de ella contienen solo ceros.
b) El primer elemento distinto de cero en cada fila esta situado mas a la derecha que el primer
elemento distinto de cero en la fila anterior.
En tal caso, los primeros elementos distintos de cero en cada fila se llaman elementos pivote de
la matriz.
Ejemplo
La matriz
1
0
0
2
1
0
0 1 1
1 0 0
0
2 1
esta en forma escalonada, y los pivotes son los elementos marcados con un recuadro. La
matriz
1 2 0 1 1
0 0 1 0 0
0 0 2
1 1
no esta en forma escalonada, puesto que el primer elemento distinto de cero en la tercera
fila esta justo debajo del primer elemento distinto de cero en la segunda.
elemental sobre un sistema de ecuaciones corresponde a
Realizar una transformacion
realizar una de las siguientes operaciones sobre su matriz ampliada correspondiente:
1. Intercambiar dos filas
2. Multiplicar todos los elementos de una fila por un escalar distinto de cero
3. Sumarle a cada elemento de una fila el correspondiente elemento de otra fila multiplicado por un escalar fijo
Estas operaciones se denominaran operaciones elementales por filas de tipo 1, 2 y 3 respectivamente. Tambien es posible realizar operaciones elementales por columnas, aunque no
haremos uso de ellas por el momento.
Definicion
1.9 Dos matrices A y B se dicen equivalentes por filas si una de ellas puede obtenerse a partir de la otra mediante una sucesion de operaciones elementales por filas.
Si dos sistemas de ecuaciones lineales son tales que sus matrices ampliadas son equivalentes por filas, entonces los sistemas son equivalentes, es decir, tienen las mismas soluciones.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
12
1.4.
Eliminaci
on gaussiana
3. Sumamos multiplos
de la fila i a cada una de las filas inferiores para que todos los
elementos en la columna j por debajo de la fila i sean 0.
4. Aumentamos i y j en 1, y volvemos al paso (1).
(1.3)
La matriz ampliada es
0 1 2 2 3
1 2 1 0 1
2 3 0
3 0
1 2 1 0 1
0 1 2 2 3
2 3 0
3 0
Ahora necesitamos que todos los elementos por debajo del (1, 1) sean cero. Para ello,
sumamos a la tercera fila la primera multiplicada por 2:
1
1 2 1 0
0 1 2 2 3
0 1 2
3 2
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.5. ALGEBRA
MATRICIAL
13
(1, 1), as que aumentamos i y j en 1 y repetiYa tenemos ceros por debajo de la posicion
(2, 2) es distinto de cero, as que no es necesario
mos en proceso. El elemento en la posicion
intercambiar filas. Debemos conseguir ceros por debajo de e l, as que sumamos la segunda
fila a la tercera:
1 2 1 0 1
0 1 2 2 3
0 0 0
1 1
(3, 3), en la que encontramos un cero y no hay
El siguiente paso nos lleva a la posicion
elemento distinto de cero por debajo. El algoritmo nos dice entonces que debemos
ningun
(3, 4). Este elemento es distinto de cero, y
movernos una columna a la derecha, a la posicion
ya no hay mas filas por debajo, por lo que podemos saltarnos el paso (3). El siguiente paso
nos lleva fuera de la matriz, por lo que el algoritmo termina aqu.
Concluimos as que el sistema (1.3) es equivalente al sistema
x1 + 2x2 x3 = 1
x2 2x3 2x4 = 3
x4 = 1
que es escalonado, y por tanto se puede resolver facilmente: las variables pivote son x1 , x2 y
x4 , y las soluciones son (3t 9, 2t + 5, t, 1) para cualquier valor de t k.
Hemos probado entonces que
Teorema 1.2 Toda matriz es equivalente por filas a una matriz en forma escalonada
1.5.
Algebra
matricial
Definicion
1.10 Sea A Mmn (k) una matriz.
1. La diagonal de A son los elementos de la forma aii , para 1 i mn{m, n}.
2. A se dice cuadrada si m = n, es decir, si tiene tantas filas como columnas. El conjunto de
las matrices cuadradas de orden n n definidas sobre k se denota por Mn (k).
3. Una matriz cuadrada se dice diagonal si aij = 0 cuando i 6= j, esto es, todos los elementos
fuera de la diagonal son 0.
4. Una matriz se dice triangular superior (respectivamente triangular inferior) si aij = 0
cuando i > j (respectivamente i < j), esto es, cuando todos los elementos situados por
debajo (respectivamente por encima) de la diagonal son cero.
Veamos ahora las diferentes operaciones que podemos realizar en el conjunto de las matrices. Comenzamos con la mas sencilla: la suma
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
14
Definicion
1.11 Sean A, B Mmn (k) dos matrices del mismo tamano.
Su suma es la matriz
A + B Mmn (k) que tiene en la posicion (i, j) la suma de los elementos de A y B en dicha
posicion, para todo 1 i m y 1 j n.
Definicion
1.12 Sea A Mmn (k) una matriz y k un escalar. El producto A (o
simplemente A) es la matriz m n obtenida a partir de A multiplicando todos sus elementos
por .
De nuevo, las propiedades del producto por un escalar se deducen directamente de las
de k. Para cualesquiera A, B Mmn (k) y , k se tiene:
1. ( + )A = A + A (propiedad distributiva con respecto al escalar)
2. (A + B) = A + B (propiedad distributiva con respecto a la matriz)
3. (A) = ()A (propiedad asociativa)
4. 0 A = 0mn
5. 1 A = A
del producto de matrices es algo mas complicada. Para poder multiplicar
La definicion
Definicion
1.13 Sean A Mmn (k) y B Mnp (k) dos matrices. Su producto es la matriz
A B (o simplemente AB) Mmp (k) cuyo elemento situado en la posicion (i, j) viene dado por
n
X
k=1
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.5. ALGEBRA
MATRICIAL
15
A=
0 1
1 0
Entonces,
B=
3 4
1 2
2 1
4 3
AB =
1 2
3 4
pero
BA =
Definicion
1.14 La matriz identidad de orden n es la matriz In Mn (k) cuyo elemento en la
posicion (i, j) es 1 si i = j y 0 si i 6= j.
Es decir, la matriz identidad es una matriz diagonal cuadrada con unos en la diagonal.
es decir, se tiene que:
Esta matriz hace las veces de unidad para la multiplicacion,
1. Im A = A para toda A Mmn (k)
2. AIn = A para toda A Mmn (k)
El producto de matrices nos proporciona una forma abreviada, que usaremos frecuentemente a partir de ahora, para expresar un sistema de ecuaciones. Dado el sistema
a11 x1 + a12 x2 + + a1n xn = b1
..
.
am1 x1 + am2 x2 + + amn xn = bm
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
16
a11 a12
..
..
..
.
.
.
am1 am2
donde
a1n
..
.
amn
x1
.. =
.
xn
a11 a12
..
..
...
A= .
.
am1 am2
b1
..
.
bm
a1n
..
.
amn
x1
x = ...
xn
b1
b = ...
bm
matricial (donde x es la
es la matriz columna de terminos independientes. Esta ecuacion
incognita)
es equivalente a las m ecuaciones que componen el sistema.
definiendo una ultima
la trasposicion.
Definicion
1.15 Sea A Mmn (k) una matriz. La traspuesta de A es la matriz At
Mnm (k) obtenida a partir de A intercambiando sus filas y sus columnas.
Es decir, si
a11 a12
..
..
..
A= .
.
.
am1 am2
entonces
a11 a21
..
..
At = ...
.
.
a1n a2n
a1n
..
.
amn
am1
..
.
amn
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
17
Definicion
1.16 Una matriz A Mn (k) se dice simetrica si At = A, y antisimetrica si
t
A = A. Si k = C, la matriz A se dice hermtica si At = A, donde A es la matriz obtenida a
partir de A conjugando todos sus elementos.
1.6.
Recordemos que existen tres tipos de operaciones elementales por filas que pueden rea de una fila por un escalar no
lizarse sobre una matriz: intercambio de filas, multiplicacion
nulo y suma de una fila multiplicada por un escalar a otra fila.
Definicion
1.17 Una matriz elemental de tipo 1, 2 o 3 es una matriz obtenida al aplicarle a la
matriz identidad In una operacion elemental por filas de tipo 1, 2 o 3 respectivamente.
elemental por filas sobre una matriz A es equivaEs facil ver que realizar una operacion
lente a multiplicar A a la izquierda por la matriz elemental correspondiente.
Definicion
1.18 Una matriz A Mn (k) se dice invertible o regular si existe una matriz
B Mn (k) tal que AB = BA = In . En caso contrario, A se dice singular. La matriz B se
denomina la matriz inversa de A y se denota por A1 .
Por ejemplo, la matriz identidad es su propia inversa. Si dos matrices A, B Mn (k) son
invertibles, la propiedad asociativa del producto implica que su producto AB tambien lo es,
y (AB)1 = B 1 A1 .
Toda matriz elemental es invertible, y su inversa es la matriz elemental correspondiente
elemental inversa: por ejemplo, la inversa de la matriz elemental corresa la operacion
multiplicar la segunda fila por 2 es la matriz elemental correspondiente a la operacion
multiplicar la segunda fila por 1/2:
pondiente a la operacion
1 0 0
1 0 0
1 0 0
1 0 0
1 0 0
0 2 0 0 1 0 = 0 1 0 0 2 0 = 0 1 0
2
2
0 0 1
0 0 1
0 0 1
0 0 1
0 0 1
Hemos visto que toda matriz A Mn (k) puede transformarse en una matriz escalonada
B mediante un numero
finito de operaciones elementales por filas. Es decir, existen matrices
elementales E1 , E2 , . . . , Er tales que
B = Er E2 E1 A.
si B lo es.
Como las matrices elementales Ei son todas invertibles, A sera invertible si y solo
Y como la matriz B es cuadrada, hay dos posibilidades:
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
18
Teorema 1.3 Una matriz A es invertible si y solo si puede transformarse en la matriz identidad
mediante una sucesion de operaciones elementales por filas. En tal caso, A1 es la matriz obtenida
al aplicar la misma sucesion de operaciones elementales sobre la matriz identidad.
Ejemplo
Apliquemos el resultado anterior para hallar la inversa de la matriz
1 2 1
A = 0 1 1
1 3 2
Iremos aplicando las mismas operaciones elementales por filas a A y a la identidad:
1 2 1
1 0 0
1 2 1 1 0 0
0 1 1 0 1 0 0 1 1 0 1 0
1 3 2 0 0 1
0 1 1 1 0 1
1 2 1
1
0 0
1 2 1
1
0 0
0 1 1 0
1 0 0 1 1 0
1 0
0 0 2 1 1 1
0 0 1 21 12 21
1 0 3
1 2 0
1 0 3 1 2 0
0 1 1 0
1 0 0 1 0 12 12 12
0 0 1 12 12 21
0 0 1 12 12 12
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.7. RANGO
19
Ejemplo (cont)
1 0 0 52 21 32
1
0 1 0 1 1
2
2
2
1
1
1
0 0 1 2 2 2
5
2
21 32
A1 = 12 21
12 21
1
2
1
2
La formula
(AB)t = B t At implica que
Teorema 1.4 Sea A Mn (k) una matriz invertible. Entonces su traspuesta At tambien lo es, y
(At )1 = (A1 )t .
1.7.
Rango
Definicion
1.19 Sea A Mmn (k) una matriz. El rango de A es el numero
de pivotes de una
matriz escalonada equivalente por filas a A.
Como toda matriz es equivalente por filas a una escalonada, esto nos permite calcular
tenga sentido, el
el rango de cualquier matriz. El problema es que, para que la definicion
numero
de pivotes debe ser independiente de la forma escalonada de A que obtengamos.
Esto es consecuencia del siguiente resultado
Lema 1.5 Sean A, B Mmn (k) dos matrices en forma escalonada equivalentes por filas. Entonces los pivotes de A y B estan situados en las mismas posiciones. En particular, A y B tienen
el mismo numero
de pivotes.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
20
Demostracion
en la que la posicion
(i, j) y en B mas a la derecha. Si A y B son equivalentes por filas, tambien lo son las
matrices A0 y B 0 formadas por las primeras j columnas de A y B respectivamente, que
tambien estan en forma escalonada. Los sistemas homogeneos que tienen como matriz
obtener a partir de ella mediante operaciones elementales por filas tiene el mismo numero
de pivotes, as que su rango esta unvocamente definido. El rango de una matriz es, por de invariante al hacer operaciones elementales por filas. Como toda matriz invertible
finicion,
es producto de matrices elementales, deducimos que
Teorema 1.6 Para toda matriz A Mmn (k) y toda matriz invertible B Mm (k) se tiene que
rango(BA) = rango(A).
Teorema 1.7 Para toda matriz A Mmn (k) y toda matriz invertible C Mn (k) se tiene que
rango(AC) = rango(A).
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.7. RANGO
21
Demostracion
Existe una matriz invertible E tal que B = EA esta en forma escalonada. Entonces
rango(A) = rango(EA) = rango(B)
y
rango(At ) = rango(At E t ) = rango(B t )
as que basta probar que el rango de B es igual al de B t . Sea r el rango de B, es decir, B
tiene r filas con pivote y m r filas de ceros. Su traspuesta B t tiene entonces r columnas
tales que el primer elemento no nulo en cada una de ellas esta por debajo del primer
elemento no nulo en la columna anterior, seguidas de m r columnas de ceros:
0 0 0
0 0
..
.. . .
.. ..
.
. . .
.
0
0
Es facil ver que, mediante operaciones elementales por filas de tipo 3, es posible poner
B t en forma escalonada, de manera que los pivotes esten exactamente en las mismas
posiciones donde estaban los de B despues de trasponerla. As que B y B t tienen el
mismo rango.
Finalmente, podemos reescribir algunos de los resultados anteriores de manera sencilla
del rango. Por ejemplo, el criterio de invertibilidad
en funcion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
22
1.8.
Determinantes
El determinante es un escalar asociado a toda matriz cuadrada, que contiene mucha in acerca de la matriz. En particular, el determinante nos dira si la matriz es o no
formacion
invertible, y nos dara un metodo para calcular el rango de cualquier matriz. En estas notas,
definiremos el determinante a partir de sus propiedades fundamentales2 .
Definicion
1.20 El determinante es una aplicacion que asocia a cada matriz cuadrada A
Mn (k) un escalar det(A) k, de manera que se verifican las siguientes propiedades:
1. Multilinearidad:
a) Si una fila de la matriz A se descompone como suma de otras dos matrices fila, el determinante de A es la suma de los determinantes de las matrices obtenidas al sustituir
dicha fila por cada uno de los dos sumandos.
b) Si se multiplica una fila de A por un escalar , el determinante de A queda multiplicado por .
2. Alternancia: Si A tiene dos filas iguales, su determinante es igual a 0.
3. Normalizacion: El determinante de la matriz identidad In es igual a 1.
de la matriz, el determinante de la
a1n
a2n
..
.
ann
a11 a12
..
..
..
.
.
.
ai1 ai2
..
..
..
.
.
.
an1 an2
ain =
..
.
ann
a1n
..
.
a11 a12
..
..
..
.
.
.
bi1 bi2
..
..
..
.
.
.
an1 an2
bin +
..
.
ann
a1n
..
.
a11 a12
..
..
..
.
.
.
ci1 ci2
..
..
..
.
.
.
an1 an2
cin
..
.
ann
a1n
..
.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.8. DETERMINANTES
23
Teorema 1.11 Al intercambiar dos filas de una matriz A Mn (k) su determinante cambia de
signo.
Demostracion
determiVeamos como
las propiedades de multilinearidad, alternancia y normalizacion
nan completamente el determinante de cualquier matriz A. Para empezar, podemos descomponer cada fila en suma de filas que contengan como maximo un elemento distinto de
cero. Usando la multilinearidad, el determinante de A queda expresado como suma de determinantes de matrices que contienen como maximo un elemento no nulo por cada fila.
Usando ahora la segunda parte de la multilinearidad, nos basta estudiar el caso en el que
dicho elemento no nulo es igual a 1.
Tenemos as una matriz en la que cada fila tiene como maximo un elemento distinto de
columna. En tal caso, podemos transformar la matriz en la identidad mediante una sucecion
de intercambios de filas. Por cada intercambio, debemos cambiar el signo del determinante.
Como el determinante de la identidad es 1, concluimos que el determinante de la matriz
ya que la matriz
+ ad 1 0
0 1
+ bc 0 1
1 0
+ bd 0 1
0 1
= ac 0 + ad 1 + bc (1) + bd 0 = ad bc
0 1
se transforma en la identidad al intercambiar las filas 1 y 2. De
1 0
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
24
elemenComo
vara el determinante de una matriz al realizar sobre ella una operacion
tal por filas? Para operaciones de tipo 1 y 2 lo sabemos ya: al intercambiar dos filas cambia
el signo del determinante, y al multiplicar una fila por un escalar no nulo el determinante
de tipo 3, estamos susqueda multiplicado por el mismo escalar. Al realizar una operacion
Teorema 1.12 El determinante de una matriz triangular superior o inferior es igual al producto
de sus elementos diagonales.
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.8. DETERMINANTES
25
Demostracion
Sabemos que, a partir de A, se puede obtener una matriz B en forma escalonada me de operaciones elementales por filas. Estas operaciones solo
pueden
diante una sucesion
cambiar el signo del determinante o multiplicarlo por un escalar no nulo, por lo que el
si lo es el de B.
determinante de A es cero si y solo
si tiene rango n, es decir, B tiene n
Sabemos tambien que A es invertible si y solo
pivotes. En tal caso, como B es cuadrada, los pivotes deben estar situados en la diagonal.
Al ser B triangular superior, su determinante es el producto de los pivotes, y es por tanto
distinto de cero.
Si, por el contrario, A no es invertible, entonces B tiene menos de n pivotes, por lo
que debe tener una fila de ceros y su determinante (y el de A) es igual a cero.
Teorema 1.14 Para cualesquiera A, B Mn (k) se tiene que det(AB) = det(A) det(B).
Demostracion
Teorema 1.15 Para toda matriz A Mn (k) se tiene que det(At ) = det(A).
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
26
Demostracion
que conUna consecuencia importante del resultado anterior es que, en toda proposicion
seguira siencierna al determinante, se pueden sustituir filas por columnas y la proposicion
do cierta. Por ejemplo, si intercambiamos dos columnas de una matriz el determinante cambia de signo; y si multiplicamos una columna por un escalar el determinante queda multiplicado por el mismo escalar.
1.9.
Demostracion
desarrollo por filas, en demostrar que el escalar definido por esta formula
cumple las tres
anterior. El desarrollo
propiedades con las que definimos el determinante en la seccion
por columnas se deduce directamente del desarrollo por filas usando que det(At ) =
det(A).
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
27
Ejemplo
Usemos el desarrollo por filas para hallar el determinante de la matriz 4 4 siguiente
0 7 3 0
1 5
4 2
0 2
0 0
2 1
2 3
Desarrollando por la tercera fila (en la que todos los elementos excepto uno son cero)
obtenemos
0 7 3 0
0 3 0
1 5
4 2
1 4 2 =
=
(1)
2
0 2
0 0
2 2 3
2 1
2 3
1 2
= (6) (3 4) = 6.
= (2) (1) (3)
2 3
Definicion
1.21 Sea A Mn (k). La matriz adjunta de A es la matriz adj(A) Mn (k) cuyo
elemento en la posicion (i, j) viene dado por
(1)i+j det(Aij )
1
adj(A)t
det(A)
Demostracion
(i, i) de B es
Sea B el producto A adj(A)t . El elemento en la posicion
n
X
k=1
k=1
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
28
Demostracion
(cont)
que es el desarrollo por la fila j-esima del determinante de la matriz obtenida al sustituir
la fila j de A por una copia de la fila i. Como esta matriz tiene dos filas iguales, su
determinante es igual a cero. Por tanto, el producto A adj(A)t es una matriz diagonal
cuyos elementos diagonales son todos iguales a det(A), es decir,
A adj(A)t = det(A)In ,
por lo que
A
1
adj(A)t
det(A)
= In .
1.10.
Submatrices. El m
etodo del orlado
A partir de una matriz dada, podemos construir nuevas matrices eliminando algunas de
sus filas y de sus columnas
Definicion
1.22 Sea A Mmn (k). Se denomina submatriz de A a toda matriz que se obtenga
a partir de A eliminando algunas de sus filas y columnas. Un menor de orden r de A es el
determinante de una submatriz cuadrada de A de tamano
r r.
Demostracion
basta probar que el rango no puePuesto que el rango es invariante por trasposicion,
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
1.10. SUBMATRICES. EL METODO
DEL ORLADO
29
El metodo del orlado es una forma alternativa de calcular el rango de una matriz, a veces
gaussiana si la matriz tiene pocas filas o columnas. Se basa
mas efectivo que la eliminacion
en el siguiente resultado.
Teorema 1.19 Supongamos que la matriz A Mmn (k) contiene una submatriz r r S invertible, y que cualquier submatriz (r + 1) (r + 1) de A que contenga a S es singular. Entonces,
el rango de A es igual a r.
Demostracion
St
a1j arj ar+1,j anj
y rango r + 1. Poniendola en forma escalonada igual que hicimos con A (primero S t ,
luego el resto) tendremos pivotes en las primeras r entradas diagonales y otro mas en
Para calcular el rango de una matriz podemos seguir entonces este proceso: comenzamos
buscando un elemento no nulo (si no lo hay, el rango es obviamente cero). Despues buscamos una submatriz 2 2 regular que contenga a este elemento. Si no la hay, el rango deber
ser 1. Si la hay, el rango es 2. Fijamos ahora esta submatriz, y buscamos una 3 3 regular
que la contenga. Si no la hay, el rango es 2. Si encontramos una, continuamos el proceso con
ella. Y as sucesivamente, hasta que no exista ninguna submatriz cuadrada regular de orden
mayor que contenga a la que hemos encontrado en el paso anterior.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
30
Ejemplo
Usemos el metodo del orlado para calcular el rango de la matriz siguiente
1 0 1 2
A = 2 1 2 1
1 1 5 5
(1, 1) es no nulo: empezamos con e l. Buscamos un menor
El elemento en la posicion
2 2 no nulo que lo contenga. Por ejemplo, el formado por las dos primeras filas y las
dos primeras columnas nos sirve:
1 0
2 1 = 1 6= 0
Continuamos el proceso con esta submatriz. Buscamos ahora una submatriz 33 regular
dos posibilidades, usar la tercera columna o la cuarta, y ambas
que la contenga. Hay solo
tienen determinante cero:
1 0 1
2 1 2 = 0
1 1 5
1 0 2
2 1 1 = 0
1 1 5
Por tanto el metodo del orlado nos dice que el rango de la matriz A es igual a 2.
1.11.
Regla de Cramer
Los sistemas de Cramer son un tipo particular de sistemas de ecuaciones con solucion
unica,
para los que existe una formula
en funcion
puede ser
del sistema que el metodo de eliminacion
gaussiana en
mas practica para hallar la solucion
los casos de 2 y 3 variables.
Definicion
1.23 Un sistema de ecuaciones lineales se dice un sistema de Cramer si cumple las
dos condiciones siguientes:
1. Tiene tantas ecuaciones como incognitas, es decir, su matriz de coeficientes es cuadrada.
2. Su matriz de coeficientes es invertible.
Un sistema de Cramer es compatible determinado: en efecto, como la matriz de coeficientes es invertible, los pivotes de su forma escalonada estan situados en la diagonal, y por
tanto no puede haber pivote en la columna de los terminos independientes de la matriz ampliada (luego el sistema es compatible) y no hay ninguna variable libre (luego el sistema es
determinado).
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
31
det(Bi )
det(A)
Demostracion
z1
del determinante,
o, usando la formula
para la inversa en funcion
z=
1
adj(A)t b.
det(A)
1
(1)i+1 det(A1i )b1 + + (1)i+n det(Ani )bn .
det(A)
La suma entre parentesis es justamente el desarrollo por la columna i-esima del determinante de Bi . Por tanto,
det(Bi )
.
zi =
det(A)
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
32
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Tema 2
Espacios vectoriales
2.1.
Sea V = k n el conjunto de n-uplas de elementos de k. Denotaremos en negrita los elementos de V , por ejemplo:
v = (v1 , v2 , . . . , vn )
con vi k para i = 1, . . . , n. Los escalares vi se llamaran las coordenadas de v.
Dos elementos de V se pueden sumar coordenada a coordenada, es decir,
u + v = (u1 + v1 , u2 + v2 , . . . , un + vn )
y podemos multiplicar elementos de V por escalares multiplicando cada una de sus coordenadas por dicho escalar:
c v = (cv1 , cv2 , . . . , cvn ).
Estas operaciones verifican las siguientes propiedades. Para cualesquiera u, v, w V y
c, d k se tiene:
1. Propiedad asociativa: (u + v) + w = u + (v + w)
2. Propiedad conmutativa: u + v = v + u
3. Existe un elemento 0 V tal que 0 + v = v para todo v
4. Para cada v existe un elemento v V tal que v + (v) = 0
5. 1 v = v
6. c (d v) = (cd) v
7. (c + d) v = c v + d v
8. c (u + v) = c u + c v
como puede comprobarse facilmente. Pero estas mismas propiedades se verifican tambien
para otros muchos conjuntos con sus correspondientes operaciones suma y producto por
escalar.
Definicion
2.1 Un espacio vectorial sobre el cuerpo k (o un k-espacio vectorial) es un conjunto V con una operacion suma (v, w) 7 v + w y una operacion producto por escalar
(c, v) 7 c v tales que se verifican las propiedades (1)-(8) anteriores. Los elementos de V se
denominan vectores.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
33de Algebra.
34
Ejemplo
1. El conjunto V = k n con las operaciones definidas anteriormente es un espacio
vectorial sobre k.
2. El conjunto Mmn (k) de matrices mn con coeficientes en k es un espacio vectorial
sobre k con las operaciones suma y producto por escalar definidas en el tema 1.
3. El conjunto P(k) de polinomios con coeficientes en k es un espacio vectorial sobre
k con las operaciones habituales. Tambien lo son los conjuntos Pn (k) formados por
los polinomios de grado menor o igual que n, para todo n 1.
4. El conjunto de funciones reales f : R R es un espacio vectorial sobre R. Tambien
lo son los subconjuntos formados por las funciones continuas y por las funciones
diferenciables.
6. Un ejemplo exotico:
Dado k = R, sea V = R+ el conjunto de enteros positivos. Si
definimos la suma de dos elementos v, w V como su producto, y el producto
de v V por el escalar c R como vc , el conjunto V adquiere una estructura de
espacio vectorial sobre R.
A partir de las propiedades que definen un espacio vectorial se pueden deducir todas las
demas. Por ejemplo:
Teorema 2.1 Sea V un espacio vectorial sobre k. Para cualesquiera c k y v V se tiene que:
1. c 0 = 0
2. 0 v = 0
3. (1) v = v
4. Si c v = 0, entonces c = 0 o v = 0.
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
35
Demostracion
(cont)
sumando a los dos lados el opuesto de 0 v obtenemos
0 = 0 v + (0 v) = (0 v + 0 v) + (0 v) = 0 v + (0 v + (0 v)) = 0 v + 0 = 0 v.
Para probar (4), supongamos que c v = 0 pero c 6= 0. Entonces, multiplicando a ambos
lados por c1 y usando el apartado (1),
c1 (c v) = c1 0 = 0,
pero
c1 (c v) = (c1 c) v = 1 v = v.
2.2.
Ejemplo
lineal de cualquier conjunto no vaco S V , ya que
1. El vector 0 es combinacion
0 v = 0 para cualquier v V . Por convenio, tambien se considera que 0 es
lineal del conjunto vaco.
combinacion
i-esima.
2. Sea ei = (0, 0, . . . , 1, . . . , 0) k n , donde el 1 esta situado en la posicion
lineal de {e1 , . . . , en }: En efecto, v k n
Entonces todo vector de k n es combinacion
puede escribirse como v1 e1 + + vn en .
Definicion
2.3 Diremos que los vectores v1 , . . . , vr V son linealmente dependientes si
existen escalares c1 , . . . , cr k no todos nulos tales que c1 v1 + + cr vr = 0. En caso contrario,
diremos que los vectores son linealmente independientes. Un subconjunto S V se dice
linealmente dependiente si existen vectores distintos v1 , . . . , vr S linealmente dependientes,
y linealmente independiente en caso contrario.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
36
Ejemplo
si v = 0. Un conjunto de
1. Un solo vector v es linealmente dependiente si y solo
vectores linealmente independientes nunca puede contener al vector 0.
si uno de ellos es un multi
2. Dos vectores u, v son linealmente dependientes si y solo
plo escalar del otro: en efecto, si c u + d v = 0 y, por ejemplo, c 6= 0, entonces
u = dc v.
3. Los monomios 1, x, x2 , . . . , xn son linealmente independientes en P(k).
4. Los vectores e1 , . . . , en son linealmente independientes en k n .
Teorema 2.2 Los vectores v1 , . . . , vr V son linealmente dependientes si y solo si uno de ellos
es combinacion lineal de los demas.
Demostracion
ci1
ci+1
cr
c1
v1
vi1
vi+1 vr ,
ci
ci
ci
ci
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
37
si el sistema homogeneo
Los vectores v1 , . . . , vr son linealmente dependientes si y solo
no trivial, es decir, si es compatible indeterminado. Por tanto,
Ax = 0 tiene alguna solucion
si el sistema es determinado, lo cual es equivalente
los vectores son independientes si y solo
a decir que el rango de la matriz A es igual a r.
2.3.
Definicion
2.4 Un subconjunto S V se dice un sistema generador del k-espacio vectorial
V si todo vector u V es combinacion lineal de vectores de S. El espacio vectorial V se dice
finitamente generado si tiene un sistema generador finito.
Ejemplo
1. Los vectores e1 , . . . , en forman un sistema generador de k n , por lo que es finitamente generado.
2. Sea Eij la matriz de Mmn (k) que tiene todas sus entradas iguales a cero excepto
la situada en la fila i y la columna j, que es igual a 1. Entonces el conjunto {Eij |1
i m, 1 j n} es un sistema generador de Mmn (k).
3. El cuerpo C como espacio vectorial sobre R tiene a {1, i} como sistema generador,
y por tanto es finitamente generado.
4. Los monomios 1, x, x2 , . . . generan el espacio vectorial P(k) de polinomios. El
espacio Pn (k) de polinomios de grado menor o igual que n esta generado por
{1, x, . . . , xn }.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
38
columnas. En particular, existe una matriz B Mrn (k) tal que AB = In , y por tanto el
rango de A debe ser al menos n. Como A tiene n filas, dicho rango es exactamente n.
Definicion
2.5 Un subconjunto B V se dice una base de V si es un sistema generador
linealmente independiente.
Ejemplo
1. Los vectores e1 , . . . , en forman una base del k-espacio vectorial k n .
2. Las matrices Ei,j para 1 i m, 1 j n forman una base del k-espacio vectorial
Mmn (k).
3. {1, i} es una base de C como espacio vectorial sobre R, pero no como espacio vectorial sobre C.
4. El conjunto de monomios {1, x, x2 , . . . , xn , . . .} forma una base del espacio vectorial
P(k).
Teorema 2.5 Sea S V un conjunto linealmente independiente y T V un conjunto generador finito tales que S T . Entonces existe una base B de V tal que S B V .
Demostracion
con un numero
finito de elementos. Mas generalmente, todo sistema generador finito de V
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
2.4. DIMENSION
39
2.4.
Dimensi
on
Sea V un espacio vectorial finitamente generado. Entonces V tiene muchas bases finitas
distintas: cualquier conjunto linealmente independiente puede extenderse a una de ellas.
veremos que todas las posibles bases de V tienen en comun
su numero
En esta seccion
de
elementos.
Demostracion
c11 cr1
x1
0
.. . .
.. .. = ..
.
. . . .
c1s
crs
xr
Teorema 2.7 (de la base) Si V es finitamente generado, todas las bases de V son finitas y tienen
el mismo numero
de elementos.
Demostracion
numero
de elementos de B no puede ser mayor que el de S, por lo que B es un conjunto
finito. Sea B 0 otra base. Aplicando el teorema anterior con R = B y S = B 0 deducimos
que el numero
de elementos de B es como mucho igual al numero
de elementos de B 0 .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
40
Demostracion
(cont)
Intercambiando los papeles de B y B 0 tenemos la desigualdad contraria, por lo que el
numero
de elementos de B y B 0 debe ser el mismo.
de V es el numero
Definicion
2.6 Si V es finitamente generado, la dimension
de elementos de
cualquier base de V . Se denota por dim(V ). Si V no es finitamente generado, se dice que V tiene
infinita.
dimension
Ejemplo
n, puesto que la base B = {e1 , . . . , en } tiene n
1. El espacio V = k n tiene dimension
elementos.
mn: la base B = {Ei,j |1 i m, 1 j
2. El espacio V = Mmn (k) tiene dimension
n} tiene mn elementos.
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
2.5. COORDENADAS
41
Demostracion
(cont)
2. Todo sistema generador S de V contiene una base B. Como B tiene n elementos,
S debe tener como mnimo n elementos. Ademas, si tiene exactamente n debe ser
igual a B.
infinita de
3. Si W no fuera finitamente generado, podramos construir una sucesion
de B (que es la dimension
de elementos de
de V ). Si estos dos numeros
B (que es la dimension
son iguales, es porque B 0 = B,
y por tanto W = V .
Teorema 2.9 Los vectores v1 , . . . , vn k n forman una base de k n si y solo si la matriz que tiene
dichos vectores por columnas es invertible.
2.5.
Coordenadas
Las coordenadas con respecto a una base nos permitiran realizar operaciones en un espacio vectorial finitamente generado arbitrario como si se tratara de k n .
Teorema 2.10 Sea B = {v1 , . . . , vn } una base del k-espacio vectorial V . Para cada u B,
existen escalares unicos
c1 , . . . , cn k tales que u = c1 v1 + + cn vn .
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
42
Definicion
2.7 Las coordenadas de u con respecto a B = {v1 , . . . , vn } son la unica
n-upla
n
de escalares (c1 , . . . , cn ) k tal que u = c1 v1 + . . . + cn vn . Se denotan por (u)B .
entre V y k n . Ademas,
Las coordenadas con respecto a B nos dan entonces una biyeccion
es facil ver que si u1 , u2 V y c k, entonces (u1 + u2 )B = (u1 )B + (u2 )B y (cu1 )B = c(u1 )B .
tomar coordenadas con respecto a B preserva las operaciones de
Es decir, la operacion
k-espacio vectorial. En particular, se tiene:
Demostracion
Definicion
2.8 La matriz de cambio de base de B a B 0 es la matriz M (B, B 0 ) Mn (k) que
tiene como columnas las coordenadas de los vectores v1 , . . . , vn de B con respecto a B 0 .
Esta matriz nos permite pasar directamente de coordenadas con respecto a B a coordenadas con respecto a B 0 :
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
2.6. SUBESPACIOS
43
Teorema 2.12 Para todo u V , si (u)tB denota las coordenadas de u con respecto a B vistas
como vector columna, se tiene
(u)tB0 = M (B, B 0 )(u)tB .
Demostracion
Como tomar coordenadas con respecto a una base preserva la suma y el producto por
escalares, es evidente que si la igualdad se cumple para dos vectores se cumple tambien
para su suma y para el producto de cualquiera de ellos por un escalar. Por tanto, basta
probar la igualdad para los vectores de un sistema generador de V , por ejemplo B.
Sea vi B, entonces sus coordenadas con respecto a B son ei , y por tanto
de M (B, B 0 ), esta coM (B, B 0 )(vi )tB es la i-esima columna de M (B, B 0 ). Por definicion
lumna es justamente (vi )B0 .
Demostracion
2.6.
Subespacios
Definicion
2.9 Un subconjunto no vaco L V de un k-espacio vectorial se dice un subespacio
de V si
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
44
2. Si v V , el conjunto de multiplos
escalares de v es un subespacio de V .
3. Sea A Mmn (k) una matriz. El conjunto de soluciones del sistema homogeneo
A x = 0 es un subespacio de k n . Por el contrario, si b k m es un vector no nulo,
el conjunto de soluciones del sistema A x = bt no es un subespacio de k n .
4. Los subconjuntos de Mn (k) formados por las matrices diagonales, triangulares
superiores, triangulares inferiores, simetricas, o antisimetricas son subespacios de
Mn (k). Si k = C, el subconjunto formado por las matrices hermticas no es un
subespacio (no es estable para el producto por escalares).
5. El subconjunto R C es un subespacio si vemos C como espacio vectorial sobre
k = R. No lo es si vemos C como espacio vectorial sobre k = C.
Definicion
2.10 Sea S V un subconjunto. El subespacio de V generado por S es el conjunto hSi V formado por los vectores que son combinacion lineal de vectores de S.
Teorema 2.14
2. Si S T V entonces hSi hT i.
3. Si L V es un subespacio, entonces hLi = L.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
2.6. SUBESPACIOS
45
Definicion
2.11 Un sistema de ecuaciones implcitas de L con respecto a B es un sistema
de ecuaciones homogeneo cuyo conjunto de soluciones esta formado por las coordenadas de los
vectores de L con respecto a B.
Teorema 2.15 El conjunto de soluciones de un sistema de ecuaciones homogeneo con n incognitas cuya matriz de coeficientes tiene rango r es un subespacio de k n de dimension n r.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
46
Demostracion
solucion
del cambio
t
0
t
si
de base, (u)B = M (B , B) (u)B0 , as que u L si y solo
A M (B 0 , B) (u)tB0 = 0.
Es decir, las coordenadas de los vectores de L con respecto a B 0 son las soluciones del
sistema A M (B 0 , B) x = 0.
2.7.
L1 L2 es entonces
Sean L1 y L2 dos subespacios del k-espacio vectorial V . Su interseccion
otro subespacio de V : Si u, v L1 L2 y c k, la suma u + v y el producto c v estan tanto en
L1 L2 . Mas generalmente, la interseccion
de un numero
cualquiera de subespacios de V es un subespacio.
L1 L2 , sin embargo, no es un subespacio en general: por ejemplo, si V = k 2 ,
La union
L1 = h(1, 0)i y L2 = h(0, 1)i, entonces los vectores (1, 0) y (0, 1) estan en L1 L2 pero su suma
no lo esta.
Definicion
2.12 La suma de dos subespacios L1 , L2 de V es el subespacio L1 + L2 generado por
la union de L1 y L2 .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
47
Demostracion
El conjunto de vectores que pueden escribirse de esa forma es claramente un subespacio de V , y contiene a L1 y a L2 (puesto que todo u L1 se puede expresar como u + 0
y todo v L2 como 0 + v). Ademas, todo subespacio de V que contenga a L1 y L2 debe
contener tambien a todo vector de la forma v1 + v2 con v1 L1 y v2 L2 . Por tanto este
conjunto es el subespacio generado por L1 L2 .
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
48
Demostracion
2.8.
Suma directa
Definicion
2.13 Sean L1 y L2 dos subespacios de V . Se dice que V es suma directa de L1 y L2
si L1 L2 = {0} y L1 + L2 = V . En ese caso escribimos V = L1 L2 .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
49
Ejemplo
1. El espacio k n es suma directa del subespacio L1 generado por {e1 } y el subespacio
x1 = 0.
L2 de soluciones de la ecuacion
2. El espacio Mn (k) es suma directa del subespacio de matrices simetricas y el subespacio de matrices antisimetricas.
3. El espacio vectorial C sobre R es suma directa del subespacio formado por los
numeros
reales y el subespacio formado por los numeros
imaginarios puros.
Teorema 2.21 Sean L1 , L2 dos subespacios de V . Entonces, las siguientes propiedades son equivalentes:
1. V = L1 L2 .
2. Todo vector u V se escribe de manera unica
como u1 + u2 , donde u1 L1 y u2 L2 .
3. Si v1 , . . . , vr forman una base de L1 y w1 , . . . , ws forman una base de L2 , entonces
v1 , . . . , vr , w1 , . . . , ws forman una base de V .
Demostracion
lineal
escribir u de manera unica
como u1 + u2 con ui Li . Como u1 es combinacion
lineal de w1 , . . . , ws , su suma es combinacion
lineal de
de v1 , . . . , vr y u2 es combinacion
v1 , . . . , vr , w1 , . . . , ws . Supongamos que 0 = c1 v1 + +cr vr +d1 w1 + +ds ws . Entonces
el vector 0 se puede escribir como la suma de c1 v1 + +cr vr L1 y d1 w1 + +ds ws L2 ,
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
50
restantes Lj es {0}. Esto equivale a que todo vector u V pueda escribirse de forma unica
como una suma v1 + . . . + vr con vi Li .
Definicion
2.14 Sea L V un subespacio. Un subespacio complementario de L en V es un
subespacio L0 V tal que V = L L0 .
Definicion
2.15 Sean V y W dos espacios vectoriales sobre k. La suma directa de V y W es el
espacio vectorial V W que tiene como conjunto subyacente el producto cartesiano V W , y en
el que las operaciones estan definidas de la siguiente forma:
(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) para todos v1 , v2 V y w1 , w2 W
c (v, w) = (c v, c w) para todos v V, w W y c k.
Es facil ver que, con estas operaciones, V W es un espacio vectorial sobre k. Ademas,
V W contiene dos subespacios L1 = {(v, 0)|v V } y L2 = {(0, w)|w W } que podemos
identificar con V y W respectivamente, tales que V W es la suma directa de L1 y L2 . En
particular, si V y W son finitamente generados, se tiene que dim(V W ) = dim(V )+dim(W ).
2.9.
Producto escalar
de los numeros
reales o el cuerpo C de los numeros
complejos. Esto es importante porque
necesitaremos tomar la raz cuadrada de cualquier escalar positivo, lo cual no es posible en
un cuerpo arbitrario.
Definicion
2.16 Sea V un espacio vectorial sobre k. Un producto escalar en V es una aplicacion V V k que asigna a cada par de vectores u, v V un escalar, que denotaremos hu, vi,
de manera que se cumplen las siguientes propiedades:
1. hu1 + u2 , vi = hu1 , vi + hu2 , vi para todos u1 , u2 , v V y
hc u, vi = chu, vi para todos u, v V , c k (lineal en la primera variable)
2. hv, ui = hu, vi para todos u, v V , donde c denota el conjugado del numero
complejo c.
3. hv, vi es positivo para todo v V distinto de 0.
Un espacio vectorial finitamente generado dotado de un producto escalar se denomina un
espacio de Hilbert.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
51
De las propiedades (1) y (2) se deduce que hu, v1 + v2 i = hu, v1 i + hu, v2 i y hu, c vi =
chu, vi para todos u, v, v1 , v2 V y c k. Si V es un espacio de Hilbert, cualquier subespacio
suyo tambien es un espacio de Hilbert con el mismo producto escalar.
Ejemplo
1. Sea V = k n . Entonces hu, vi = u1 v1 + + un vn define un producto escalar en
V . Este espacio de Hilbert se denomina el espacio eucldeo de dimension n. A partir
de ahora, si no especificamos un producto escalar en k n , supondremos que nos
estamos refiriendo a e ste.
2. En V = k n , la formula
hu, vi = u1 v1 + + un vn define un producto escalar si k = R
(de hecho es el mismo que en el ejemplo anterior) pero no si k = C, ya que no
verifica la propiedad (2).
3. En V = R2 , hu, vi = u1 v1 u2 v2 no define un producto escalar, ya que no verifica
la propiedad (3): h(0, 1), (0, 1)i = 1 < 0.
4. En V = Mn (k) la formula
hA, Bi = tr(AB ) (donde B = B t es la conjugada
traspuesta de B) define un producto escalar.
5. Sea V el R-espacio vectorial de funciones reales continuas definidas en el intervalo
R1
[0, 1] R. Entonces, hf, gi = 0 f (x)g(x)dx define un producto escalar en V .
n
X
ci dj hvi , vj i.
i,j=1
Es decir, un producto escalar esta completamente determinado por su valor en todos los
pares de elementos de una base. En forma matricial, podemos expresarlo como
d1
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
52
Definicion
2.17 Sea V un espacio de Hilbert. Dos vectores u, v V se dicen ortogonales o
perpendiculares, y se denota u v, si hu, vi = 0.
Definici
2.18 Sea V un espacio de Hilbert. El modulo
de un vector u V es el numero
real
pon
||u|| = hu, ui 0.
p
|u1 |2 + . . . + |un |2 . En Rn
Demostracion
La primera propiedad se deduce de las propiedades (1) y (2) del producto escalar,
ya que cc = |c|2 . La segunda es consecuencia directa de la propiedad (3) del producto
escalar.
La desigualdad (3) es evidente (y de hecho una igualdad) si u = 0. Supongamos que
u 6= 0. Entonces, para todo t k, se tiene que
0 htu + v, tu + vi = tthu, ui + thu, vi + thv, ui + hv, vi.
hv,ui
Tomando t = hu,ui
, obtenemos
+ hv, vi = hv, vi
hu, ui
hu, ui
hu, ui
hu, ui
de donde
|hu, vi|2 = hu, vihv, ui hu, uihv, vi = ||u||2 ||v||2 .
La desigualdad (3) se obtiene tomando raz cuadrada. Ademas, por (2), se tiene la igualhv,ui
si v hu,ui
si u y v son linealmente dependad si y solo
u = 0, lo cual ocurre si y solo
dientes.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
53
Demostracion
(cont)
Veamos ahora (4). Usando (3), tenemos que
||u + v||2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi =
= ||u||2 +2<hu, vi+||v||2 ||u||2 +2|hu, vi|+||v||2 ||u||2 +2||u||||v||+||v||2 = (||u||+||v||)2
Definicion
2.19 Sea V un espacio de Hilbert y L V un subespacio. El complemento ortogonal de V es el conjunto L formado por los vectores de V que son ortogonales a todos los
vectores de L.
si es
Por linearidad, un vector v V es ortogonal a todos los vectores de L si y solo
ortogonal a todo vector de un sistema generador de L.
Teorema 2.23 Para todo subespacio L de un espacio de Hilbert finitamente generado V , su complemento ortogonal L V es un subespacio complementario de L.
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
54
Demostracion
si v
Para probar (3) elijamos bases B1 y B2 de L1 y L2 . Entonces v L
1 L2 si y solo
si es ortogonal
es ortogonal a todo vector de B1 y a todo vector de B2 , es decir, si y solo
a todo vector de B1 B2 . Pero B1 B2 es un sistema generador de L1 + L2 , por lo tanto
esto es equivalente a ser ortogonal a todo vector de L1 + L2 .
Finalmente, (4) se deduce de (2) y (3):
(L1 L2 ) = ((L
1 ) (L2 ) ) = ((L1 + L2 ) ) = L1 + L2 .
Este resultado nos permite dar un metodo sencillo para calcular el complemento ortogonal de un subespacio L del espacio eucldeo k n . Supongamos primero que L esta generado
por un unico
vector v = (v1 , . . . , vn ). Entonces L es el conjunto de vectores ortogonales
v1 x1 + + vn xn = 0. En
a v, es decir, los vectores (x1 , . . . , xn ) que verifican la ecuacion
general, si L esta generado por los vectores v1 , . . . , vr , su complemento ortogonal sera la
de los complementos ortogonales de los subespacios generados por cada vi =
interseccion
(vi1 , . . . , vin ), y por tanto sera el conjunto de soluciones del sistema formado por las ecuaciones vi1 x1 + + vin xn = 0 para i = 1, . . . , r. Es decir,
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
2.10.
55
Bases ortonormales
Definicion
2.20 Sea V un espacio de Hilbert. Una base B de V se dice ortogonal si los vectores
de B son ortogonales dos a dos, y ortonormal si es ortogonal y, ademas, cada vector de B tiene
modulo 1.
Ejemplo
1. En el espacio eucldeo k n , la base estandar {e1 , . . . , en } es ortonormal.
x1 +x2 +x3 +x4 =
2. En el subespacio del espacio eucldeo R4 definido por la ecuacion
0, la base {( 21 , 12 , 12 , 21 ), ( 12 , 12 , 12 , 12 ), ( 12 , 21 , 12 , 12 )} es ortonormal.
La principal ventaja de las bases ortonormales es que hallar las coordenadas de cualquier vector con respecto a ella es inmediato: supongamos que B = {u1 , . . . , un } es una base
ortonormal de V , y sea v V . Si v = c1 u1 + + cn un , entonces para cada i = 1, . . . , n:
hv, ui i = c1 hu1 , ui i + + cn hun , ui i = ci hui , ui i = ci ,
as que
Teorema 2.26 Si B = {u1 , . . . , un } es una base ortonormal de V , las coordenadas del vector v
con respecto a B son (hv, u1 i, . . . , hv, un i).
Definicion
2.21 Una matriz A Mn (C) se dice unitaria si A A = In . Si A Mn (R) esto
es equivalente a A At = In , y en ese caso A se dice ortogonal.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
56
Algoritmo de Gram-Schmidt
Comenzamos con una base B = {v1 , . . . , vn } de V . En el paso i-esimo, construimos el
vector wi V de la siguiente forma: para i = 1, w1 = v1 . Supongamos que hemos construido w1 , . . . , wi1 y que estos vectores son ortogonales entre s. El vector wi sera de la
forma wi = vi c1 w1 . . . ci1 wi1 . Para hallar los coeficientes c1 , . . . , ci1 , imponemos
que wi sea ortogonal a wj para j < i:
0 = hwi , wj i = hvi c1 w1 . . . ci1 wi1 , wj i = hvi , wj i cj hwj , wj i
por lo que debemos tomar cj =
wi = v i
hvi ,wj i
.
hwj ,wj i
Es decir,
hvi , w1 i
hvi , wi1 i
w1 . . .
wi1 .
hw1 , w1 i
hwi1 , wi1 i
1
wi .
||wi ||
1
1
1
, , 0, 0 , u2 = p
w2 =
2
2
3/2
3
y u3 =
w3 =
2
1 1
2
, , ,0
6 6 3
!
1
1
3
1
, , ,
.
2 3 2 3 2 3 2
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Tema 3
Homomorfismos de espacios vectoriales
3.1.
Homomorfismos: definici
on y ejemplos
Los homomorfismos entre espacios vectoriales son aplicaciones que preservan las operaciones de espacio vectorial.
Definicion
3.1 Sean V y W dos k-espacios vectoriales. Un homomorfismo entre V y W es
una aplicacion f : V W tal que
1. f (u + v) = f (u) + f (v) para todos u, v V .
2. f (c v) = c f (v) para todos c k, v V .
El conjunto de homomorfismos entre V y W se denota por Hom(V, W ). Si V = W , se dice que f
es un endomorfismo de V .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
57de Algebra.
58
Ejemplo (cont)
traza tr : V k es un homomorfismo. Sin embargo,
6. Sea V = Mn (k). La aplicacion
determinante det : V k no lo es.
la aplicacion
f : V k n dada por f (v) = (v)B
7. Sea B = {v1 , . . . , vn } una base de V . La aplicacion
es un homomorfismo.
z 7 z es un endomorfismo de C como R-espacio
8. Sea V = C. La conjugacion
vectorial, pero no como C-espacio vectorial.
Teorema 3.1 Sea f : k n k m un homomorfismo. Existe una matriz A Mmn (k) tal que
f (v)t = A vt para todo v k n .
Demostracion
Definicion
3.2 La matriz de f : V W con respecto a B y C es la matriz M (f )B,C
Mmn (k) que tiene por columnas (f (v1 ))tC , . . . , (f (vn ))tC . Si V = W y B = C se denota simplemente por M (f )B , y se denomina matriz de f con respecto a B.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Y EJEMPLOS
3.1. HOMOMORFISMOS: DEFINICION
59
Ejemplo
1. La matriz del homomorfismo cero f : V W con respecto a cualquier par de
bases es la matriz cero.
2. La matriz del endomorfismo identidad f : V V con respecto a las bases B y B 0
de V es justamente la matriz de cambio de base de B a B 0 . En particular, si B = B 0 ,
es la matriz identidad.
3. Si V = M2 (k), la matriz del
homomorfismo traza V k con respecto a las bases
canonicas
es 1 0 0 1 .
con
4. Si V = C como R-espacio
vectorial,la matriz del endomorfismo conjugacion
1 0
respecto a la base {1, i} es
.
0 1
Al igual que las coordenadas con respecto a una base B de V nos dan una correspondencia biunvoca entre los vectores de V y los de k n , las matrices con respecto a las bases
B = {v1 , . . . , vn } de V y C = {w1 , . . . , wm } de W nos dan una correspondencia biunvoca
entre el conjunto de homomorfismos f : V W y el espacio de matrices Mmn (k).
Demostracion
Sean u, v U . Entonces (g f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) +
g(f (v)) = (g f )(u) + (g f )(v). Si c k, entonces (g f )(c v) = g(f (c v)) = g(c f (v)) =
c g(f (v)) = c (g f )(v). Por tanto, g f es un homomorfismo.
Ademas, para todo u U se tiene que
((g f )(u))D = (g(f (u)))D = M (g)C,D (f (u))C = M (g)C,D M (f )B,C (u)B ,
as que, por la unicidad de la matriz de un homomorfismo,
M (g f )B,D = M (g)C,D M (f )B,C .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
60
Demostracion
3.2.
N
ucleo e imagen
Teorema 3.5 Sea f : V W un homomorfismo de k-espacios vectoriales, y L V un subespacio. La imagen f (L) de L por f es entonces un subespacio de W .
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
3.2. NUCLEO
E IMAGEN
61
Teorema 3.6 Sea f : V W un homomorfismo de k-espacios vectoriales, y L W un subespacio. La imagen inversa f 1 (L) de L por f es entonces un subespacio de V .
Demostracion
Definicion
3.4 Sea f : V W un homomorfismo de k-espacios vectoriales. El nucleo
de f es
1
el subespacio ker(f ) = f ({0}) = {v V |f (v) = 0} V .
Sean B y C bases de V y W , y supongamos que un sistema de ecuaciones de L con res si A (w)tC = 0. Entonces v f 1 (L) si y solo
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
62
Demostracion
(cont)
as que v d1 v1 ds vs ker(f ), por lo que existen c1 , . . . , cr k tales que v d1 v1
lineal de u1 , . . . , ur , v1 , . . . , vs .
ds vs = c1 u1 + + cr ur , y v es por tanto combinacion
Veamos ahora que son linealmente independientes: supongamos que c1 u1 + +
cr ur + d1 v1 + + ds vs = 0. Aplicando f y teniendo en cuenta que f (ui ) = 0 para todo
i = 1, . . . , r, deducimos que d1 w1 + + ds ws = 0, y por tanto d1 = . . . = ds = 0 por ser
w1 , . . . , ws linealmente independientes. Se tiene entonces que c1 u1 + + cr ur = 0, y por
tanto c1 = . . . = cr = 0 por ser u1 , . . . , ur linealmente independientes.
3.3.
Isomorfismos
criterio en funcion
Teorema 3.8 Sea f : V W un homomorfismo de k-espacios vectoriales. Las siguientes propiedades son equivalentes:
1. f es inyectivo, es decir, las imagenes de dos vectores distintos de V son distintas.
2. ker(f ) = {0}.
3. Para todos v1 , . . . , vr V linealmente independientes, sus imagenes f (v1 ), . . . , f (vr )
W son linealmente independientes.
Demostracion
Definicion
3.5 Un isomorfismo entre dos k-espacios vectoriales V y W es un homomorfismo
biyectivo f : V W . Los espacios vectoriales V y W se dicen isomorfos si existe un isomorfismo
entre ellos.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
3.3. ISOMORFISMOS
63
Demostracion
La inversa f 1 es claramente biyectiva, por lo que basta probar que es un homomorfismo. Sean w1 , w2 W , v1 = f 1 (w1 ) y v2 = f 1 (w2 ). Entonces f (v1 ) = w1
f 1 (w1 + w2 ) es el unico
es el unico
vector de V tal que su imagen por f es cw1 . Como cv1 cumple esa condicion,
1
1
1
debe ser f (cw1 ) = cv1 = cf (w1 ). Por tanto f es un homomorfismo.
de las maLos criterios de sobreyectividad e inyectividad se pueden expresar en funcion
trices de los homomorfismos, si fijamos bases. Supongamos que V y W tienen dimensiones
n y m respectivamente, y sean B y C bases de V y W . Entonces se tiene que
si M (f )B,C tiene rango m.
f es sobreyectiva si y solo
si M (f )B,C tiene rango n.
f es inyectiva si y solo
si M (f )B,C es invertible.
f es un isomorfismo si y solo
Teorema 3.10 Sean V y W dos k-espacios vectoriales finitamente generados de la misma dimension, y f : V W un homomorfismo. Las siguientes propiedades son equivalentes:
1. f es inyectivo.
2. f es sobreyectivo.
3. f es un isomorfismo.
Demostracion
Obviamente basta probar que las condiciones (1) y (2) son equivalentes. Sea n =
dim(V ) = dim(W ). Se tiene entonces que n = dim(ker(f )) + dim(im(f )), por lo que
si dim(im(f )) = n (es decir, f es
dim(ker(f )) = 0 (es decir, f es inyectivo) si y solo
sobreyectivo, ya que dim(W ) = n).
y de hecho esta es
Dos espacios vectoriales isomorfos deben tener la misma dimension,
necesaria:
la unica
condicion
Teorema 3.11 Dos k-espacios vectoriales finitamente generados V y W son isomorfos si y solo
si tienen la misma dimension.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
64
Demostracion
3.4.
Espacio dual
Definicion
3.6 Sea V un k-espacio vectorial. Una forma lineal definida en V es un homomorfismo : V k. El conjunto de formas lineales definidas en V se denota por V .
que asocia a
Si , V son dos formas lineales, su suma + (es decir, la aplicacion
cada v V el escalar (v) + (v)) tambien lo es. Ademas, para todo c k, la aplicacion
c : V k tambien es una forma lineal.
Definicion
3.7 Con estas dos operaciones, el conjunto V adquiere una estructura de espacio
vectorial sobre k, que llamaremos espacio dual de V .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
65
Teorema 3.12 Con las notaciones anteriores, B = {1 , . . . , n } es una base de V , que llamaremos base dual de B. En particular, dim(V ) = dim(V ).
Demostracion
concluimos que las dos formas lineales deben ser iguales, y por tanto es combinacion
lineal de 1 , . . . , n .
3.5.
Autovalores y autovectores
Definicion
3.8 Sea V un k-espacio vectorial y f : V V un endomorfismo. Un vector v 6= 0
se dice un autovector de f si f (v) = v para un escalar k, que llamaremos el autovalor
asociado a v.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
66
Teorema 3.13 Sea A la matriz del endomorfismo f : V V con respecto a una base B. El
escalar k es un autovalor de f si y solo si la matriz In A es singular.
Para hallar los autovalores de f debemos entones hallar los tales que det(In A) = 0.
de V ).
Notemos que este determinante es un polinomio en de grado n (la dimension
Definicion
3.9 Sea A Mn (k) una matriz cuadrada. El polinomio caracterstico de A es
P (t) = det(tIn A) k[t].
Definicion
3.10 Dos matrices A, B Mn (k) se dicen semejantes si existe una matriz invertible P Mn (k) tal que B = P 1 AP .
Demostracion
Definicion
3.11 Sea f : V V un endomorfismo. El polinomio caracterstico de f es polinomio caracterstico de la matriz de f con respecto a cualquier base de V .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
3.6. DIAGONALIZACION
67
Definicion
3.12 Sea V un k-espacio vectorial finitamente generado, f : V V un endomorfismo y k un autovalor de f . La multiplicidad algebraica de es la multiplicidad de como
raz del polinomio caracterstico de f . La multiplicidad geometrica de es la dimension del
subespacio propio asociado a .
Demostracion
(es decir, la
Sea W V el subespacio propio asociado a , y sea r su dimension
multiplicidad geometrica de ). Sea B una base de V obtenida ampliando una base de
W . Como todo vector v W verifica que f (v) = v, la matriz de f con respecto a B
tiene la forma
0
.. . . . .. .. . . . ..
. .
.
.
A = 0
. .
..
. . ... ... . . . ...
0 0
Desarrollando el determinante de tIn A por las primeras columnas, vemos que su
polinomio Q(t)
polinomio caracterstico tiene la forma P (t) = (t )r Q(t) para algun
de grado n r, por lo que la multiplicidad de la raz es como mnimo igual a r.
En particular, si la multiplicidad algebraica del autovalor es 1 (es decir, si es una raz
simple del polinomio caracterstico de f ), su multiplicidad geometrica tambien es igual a 1.
3.6.
Diagonalizaci
on
Definicion
3.13 Sea V un k-espacio vectorial finitamente generado. Un endomorfismo f : V
V se dice diagonalizable si existe una base B de V tal que la matriz M (f )B sea diagonal. Una
matriz A Mn (k) se dice diagonalizable si es semejante a una matriz diagonal.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
68
Por la formula
de cambio de base, un endomorfismo f : V V es diagonalizable si y
si su matriz con respecto a una base cualquiera B de V es diagonalizable.
solo
Demostracion
1 0 0
0 2 0
..
.. . .
.. .
.
.
.
.
0 0 n
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
3.6. DIAGONALIZACION
69
Demostracion
en r:
Supongamos que vi esta asociado al autovalor i . Procedemos por induccion
para r = 1 es evidente, puesto que todo autovector debe ser distinto de 0. Supongamos
al absurdo que v1 + v2 + + vr = 0. Aplicando f , obtenemos
por reduccion
f (v1 ) + f (v2 ) + + f (vr ) = 1 v1 + 2 v2 + + r vr = 0.
Por otra parte, multiplicando la suma original por 1 :
1 v1 + 1 v2 + + 1 vr = 0.
Restando ambas igualdades, se tiene
(2 1 )v2 + + (r 1 )vr = 0.
Demostracion
del teorema
Supongamos que f es diagonalizable, y sea B una base de V formada por autovecto
res de f . Cada autovector esta asociado a un autovalor . Para cada , sea b el numero
de
elementos de B asociados a . Como maximo hay g autovectores
indepenP linealmente
P
P
dientes asociados
a
,
por
lo
que
b
g
.
Pero
entonces
n
=
b
a n,
P
por lo que g = n.
P
P
Supongamos
ahora
que
la
suma
de
los
g
es
igual
a
n.
Entonces
n
=
g
a n,
P
por lo que a = n (esP
decir, el P
polinomio caracterstico se descompone como producto
de factores lineales) y
a =
g , lo cual implica que a = g para todo (ya que
g a ).
Finalmente, supongamos que el polinomio
caracterstico de f se descompone como
P
producto de factores lineales (es decir,
a = n) y que g = a para todo autovalor .
Para cada , sea B una base delSsubespacio propio asociado a . Entonces B tiene g
elementos.
B es una base de V , y entonces f sera diagonalizable,
S Veamos que la union
ya que BS esta compuesto
por
autovectores
de f .
P
Como B tiene g = n elementos, basta probar que es linealmente independiente. Sea B = {v1 , . . . , vn }, y c1 , . . . , cn k tales que c1 v1 + + cn vn = 0. Denotemos
lineal anterior los
por 1 , . . . , r los autovalores de f , y agrupemos en la combinacion
terminos asociados al mismo autovalor:
(c1 v1 + + cm1 vm1 ) +(cm1 +1 vm1 +1 + + cm2 vm2 ) + + (cmr1 +1 vmr1 +1 + + cn vn ) = 0
donde vmi1 +1 , . . . , vmi son los elementos de Bi . La suma del grupo i-esimo es, o bien
cero, o bien un autovector asociado a i . Por el lema, todas las sumas debe ser igual a
cero: cmi1 +1 vmi1 +1 + + cmi vmi = 0 para todo i = 1, . . . , r. Pero Bi es linealmente
independiente, por lo que concluimos que todos los ci deben ser cero.
Notemos que, si k es algebraicamente cerrado (por ejemplo, k = C), la primera parte de
(3) se cumple automaticamente por el teorema fundamental del a lgebra.
la condicion
Un caso especial importante es el siguiente:
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
70
Demostracion
En ese caso, a = 1 para todo , por lo que g tambien es igual a 1 para todo y se
(2) del teorema.
cumple la condicion
Ejemplo
La matriz
1 0 0
3 1 4
0 0 2
1 0
0
3 1 4
0 0 1
tiene dos autovalores 1 y 1, y para = 1 se tiene a1 = 2 y g1 = 1, por lo que no es
diagonalizable.
Si A es una matriz diagonalizable, sea B una base de k n formada por autovectores de
A. Si denotamos por P la matriz invertible que tiene como columnas los vectores de B, se
tiene entonces que AP = P D, donde D es la matriz diagonal que tiene como elementos
diagonales los autovalores de A (asociados a los elementos correspondientes de B). Dicho
de otra forma, se tiene P 1 AP = D.
En tal caso, es facil calcular An para todo n 1: como A = P DP 1 , tenemos que
An = (P DP 1 )n = (P DP 1 )(P DP 1 ) (P DP 1 ) = P Dn P 1
y Dn se obtiene simplemente elevando a n cada una de sus entradas diagonales.
3.7.
Teoremas espectrales
Definicion
3.14 Una matriz A Mn (k) se dice normal si AA = A A, es decir, si A conmuta
con su conjugada traspuesta.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
71
Ejemplo
1. Las matrices diagonales son normales.
2. Si k = C, las matrices hermticas (es decir, tales que A = A) son normales.
3. Si k = R, las matrices simetricas y antisimetricas son normales.
4. Si k = C, las matrices unitarias (es decir, tales que AA = In ) son normales.
5. Si k = R, las matrices ortogonales (es decir, tales que AAt = In ) son normales.
Teorema 3.20 (Lema de Schur) Sea A Mn (C) una matriz. Entonces existe una matriz unitaria U Mn (C) tal que U AU es triangular superior.
Demostracion
es un multiplo
de v, por lo que es tambien un autovector de A, asociado a un autovalor
. Si U1 es la matriz cuyas columnas son los vectores de B, U1 es unitaria y AU1 es de la
forma
u1 Au2 Aun .
Por tanto, U1 AU1 es de la forma
0
..
.
B
0
1 0 0
0
U2 = ..
Mn (C),
.
V
0
entonces U2 es unitaria y, si denotamos U = U1 U2 , se tiene que
V BV
0
I
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
72
Demostracion
(cont)
es triangular superior.
Teorema 3.21 Una matriz A Mn (C) es normal si y solo si existe una matriz unitaria U
Mn (C) tal que U AU es diagonal.
Demostracion
Supongamos que A es normal. Por el lema de Schur, existe una matriz unitaria U
Mn (C) tal que U AU = T es triangular superior. Entonces T T = (U AU ) (U AU ) =
U A AU = U AA U = (U AU )(U AU ) = T T , por lo que T tambien es normal. Para
(i, i) viene dado por t1i t1i + t2i t2i +
todo i = 1, . . . , n, el elemento de T T en la posicion
2
2
+ tii tii = |t1i | + + |tii | , y el de T T viene dado por tii tii = |tii |2 , por lo que
t1i = t2i = = ti1,i = 0, es decir, T es diagonal.
Recprocamente, supongamos que existe una matriz unitaria U tal que D = U AU
es diagonal. Entonces A = U DU , por lo que A A = (U DU ) (U DU ) = U D DU =
U DD U = (U DU )(U DU ) = AA .
Teorema 3.22 Sea A Mn (C) una matriz normal, y u, v k n dos autovectores de A asociados
a autovalores distintos. Entonces u v.
Demostracion
Supongamos en primer lugar que A es diagonal, y sean a1 , . . . , an las entradas diagonales. Sean , los autovalores asociados a u, v. Entonces Aut = (a1 u1 , . . . , an un )t =
(u1 , . . . , un )t y Avt = (a1 v1 , . . . , an vn )t = (v1 , . . . , vn )t , de donde ai ui = ui y ai vi = vi
para todo i = 1, . . . , n. Por tanto ai ui vi = ui vi = ui vi para todo i. Como 6= , se
deduce que ui vi = 0 para todo i, es decir, o bien ui = 0 o bien vi = 0. En particular, u v.
En general, sea U Mn (C) una matriz unitaria tal que D = U AU sea diagonal.
Entonces U ut y U vt son autovectores de D asociados a autovalores distintos, por lo
vt = 0, es decir,
que (U ut ) (U vt ). En otras palabras, (U ut ) (U vt ) = 0, de donde u
u v.
Teorema 3.23 Si A Mn (C) es una matriz hermtica, todos los autovalores de A son reales.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
73
Demostracion
(vt ) = v
Avt = (
||v||2 = v
es decir, R.
de donde = ,
Corolario 3.24 Sea A Mn (R) una matriz simetrica. Entonces existe una matriz ortogonal
O Mn (R) tal que Ot AO es diagonal. En particular, A es diagonalizable.
Demostracion
Si vemos A como matriz en Mn (C) es diagonalizable, por ser normal. Pero tambien
es hermtica, por lo que sus autovalores son reales, y por tanto los autovectores pueden
de la prueba del lema de Schur nos da entonces
tomarse tambien reales. La construccion
Teorema 3.25 Si A Mn (C) es una matriz unitaria (y, en particular, si A Mn (R) es una
matriz ortogonal), todos sus autovalores tienen valor absoluto 1.
Demostracion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
74
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Tema 4
Espacio afn y eucldeo
4.1.
Espacio afn
Definicion
4.1 Sea k un cuerpo. El espacio afn n-dimensional sobre k consta de:
El conjunto k n (visto simplemente como conjunto de puntos), que denotaremos An (k).
El espacio vectorial V = k n . Para distinguir sus elementos de los de An (k), los denotaremos
de la forma (v1 , . . . , vn ).
Una operacion suma externa An (k) V An (k) que asocia al punto P = (a1 , ..., an ) y
Definicion
4.2 Dados dos puntos P, Q An (k), el unico
denota por P Q.
se cumple la formula
2. P P = 0
Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
75de Algebra.
76
3. P Q = QP
4. P Q = RS P R = QS (formula del paralelogramo)
Demostracion
Veamos por
Todas las propiedades son consecuencia inmediata de la definicion.
ejemplo la primera: se tiene que
P + (P Q + QR) = (P + P Q) + QR = Q + QR = R
Definicion
4.3 Los puntos P0 , P1 , . . . , Pr An (k) se dicen afnmente dependientes o inde
Por ejemplo, los puntos (1, 0), (0, 1) y (1, 1) de A2 (R) son afnmente independientes, pero
(1, 0), (0, 1) y (2, 1) son afnmente dependientes. Como el maximo numero
de vectores linealmente independientes en k n es n, un conjunto de puntos afnmente independiente tiene
a lo sumo n + 1 elementos.
Pongamos Pi = (ai1 , . . . , ain ) para cada i = 0, . . . , r. Entonces los puntos {P0 , P1 , . . . , Pr }
si el rango de la matriz
son afnmente independientes si y solo
..
..
..
.
.
.
a1n a0n arn a0n
es igual a r. Este rango es uno menos que el de la matriz
1
0
0
0 a11 a01 ar1 a01
..
..
..
..
.
.
.
.
0 a1n a0n arn a0n
Sumando la primera fila multiplicada por a0i a la
este rango es el mismo que el de la matriz
1
0
..
..
..
.
.
.
a0n a1n a0n
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
77
1
1
a01 a11
a02 a12
..
..
...
.
.
a0n a1n
1
ar1
ar2
..
.
arn
es igual a r + 1.
En particular, el que los puntos sean o no afnmente dependientes no depende del orden en que se tomen. Es decir, podemos elegir cualquiera de ellos como punto base para
construir los vectores que deben o no ser linealmente dependientes.
4.2.
Variedades lineales
Definicion
4.4 Un subconjunto L An (k) se dice una variedad lineal si es vaco o si es de la
forma O + W , donde O es un punto de An (k) y W un subespacio vectorial de V . En tal caso, el
subespacio W se denotara por D(L) y se llamara subespacio de direcciones de L.
Por tanto, D(L) es igual al conjunto de todos los vectores de la forma P Q para todo par de
puntos P, Q L y, en particular, no depende de O.
Ejemplo
punto es una variedad lineal, y D(L) = {0}. El
Un conjunto L = {P } con un solo
espacio total L = An (k) tambien lo es, con D(L) = k n .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
78
si el vector OP = (x1 a1 , . . . , xn an )
tes). Un punto P = (x1 , . . . , xn ) esta en L si y solo
si
esta en W , es decir, si y solo
x 1 a1
0
x1
b1
..
. .
..
C
= . C .. = ..
.
x n an
donde
b1
..
. =C
br
xn
br
a1
.. .
.
an
Es decir, una variedad lineal es siempre el conjunto de soluciones de un sistema de ecuaciones lineales (no necesariamente homogeneas). A un tal sistema lo llamaremos unas ecuaciones implcitas de L.
Recprocamente, el conjunto de soluciones de un sistema de ecuaciones lineales es siempre una variedad lineal. Si el sistema es incompatible es evidente, puesto que el conjunto
Si es compatible, sea O = (a1 , . . . , an ) una sovaco es una variedad lineal por definicion.
del sistema, y sea W el subespacio de soluciones del sistema homogeneo corresponlucion
del sistema,
diente. Entonces todo punto de la forma O + v con v W es tambien solucion
del sistema puede escribirse de esta forma, como se vio en el tema 1. Por
y toda solucion
tanto el conjunto de soluciones forma una variedad lineal L, y ademas su subespacio de
del sistema
direcciones D(L) esta formado por los vectores cuyas coordenadas son solucion
homogeneo correspondiente.
como la
Definicion
4.5 Sea L An (k) una variedad lineal no vaca. Se define su dimension
n
dimension del subespacio D(L) k .
En particular, la dimension
entero
0 son los puntos, las de dimension
1
comprendido entre 0 y n. Las variedades de dimension
n 1 se llaman hiperplanos.
y 2 se llaman rectas y planos respectivamente, y las de dimension
Si una variedad no vaca L1 esta contenida en otra variedad L2 , entonces D(L1 ) D(L2 ),
Definicion
4.6 Sea L An (k) una variedad lineal. Un conjunto de puntos {P0 , P1 , . . . , Pr } de
de D(L), y se dice una base de L si los vectores P0 P1 , . . . , P0 Pr forman una base de D(L).
1
1 1
a01 a11 ar1
..
..
..
.
.
.
.
.
.
a0n a1n arn
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
79
(que es uno mas que el rango de la matriz formada por los vectores P0 P1 , . . . , P0 Pr ) es igual
Teorema 4.3 Toda base de una variedad lineal L de dimension d tiene d + 1 elementos.
4.3.
Sistemas de referencia
Los sistemas de referencia jugaran el papel que jugaban las bases para los espacios vectoriales: dado un sistema de referencia, podremos asociar unas coordenadas a cada punto
de una variedad lineal.
Definicion
4.7 Un sistema de referencia de una variedad lineal L An (k) es un par R =
(O, B) formado por un punto O L (llamado el origen de R) y una base B de D(L).
Ejemplo
de referencia formado por el punto P0 como origen y la base {P0 P1 , . . . , P0 Pd } de D(L). As,
dar un sistema de referencia de una variedad lineal es equivalente a dar una base.
Sea ahora R0 = (O0 , B 0 ) otro sistema de referencia de L, y sea P L un punto con
coordenadas (c1 , . . . , cd ) con respecto a R. Entonces
P = O + c1 v 1 + + cd v d = O 0 + O 0 O + c1 v 1 + + cd v d
y por tanto las coordenadas de P con respecto a R0 son las coordenadas del vector O0 O +
c1 v1 + + cd vd con respecto a B 0 = {v10 , . . . , vd0 }, que son la suma de las coordenadas de
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
80
M (R, R ) =
1
0 0
t
(O)R0 M (B, B 0 )
,
4.4.
Definicion
4.8 Sea S An (k) un subconjunto y O S. La variedad lineal generada por S
Es decir, L(S) es el conjunto de puntos de la forma O+c1 OP1 + +cr OPr para cualesquie de L(S) no depende del punto O S elegido:
ra P1 , . . . , Pr S y c1 , . . . , cr k. La definicion
0
si O es otro punto de L, todo elemento que se pueda escribir como O + c1 OP1 + + cr OPr
se escribe tambien como
O0 + (1 c1 cr )O0 O + c1 O0 P1 + + cr O0 Pr
y viceversa. La variedad L(S) es claramente la menor variedad lineal de An (k) que contiene
todos los puntos de S.
Definicion
4.9 Sean L1 , L2 dos variedades lineales en An (k). La suma de L1 y L2 es la variedad
L1 + L2 = L(L1 L2 ) generada por L1 L2 .
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
81
Demostracion
definicion
lineal de OP1 , . . . , OPr , OQ1 , . . . , OQs . En particular, es suma de un vector de D(L1 ) (la
lineal que contiene a OQ1 , . . . , OQs ). Por tanto esta en D(L1 ) + D(L2 ).
la combinacion
Demostracion
Tanto D(L1 ) como D(L2 ) y hP Qi estan contenidos en D(L1 + L2 ), por lo que su su opuesta. Tomando P como punto base en la
ma tambien lo esta. Veamos la contencion
de L1 + L2 , tenemos que D(L1 + L2 ) es el conjunto de vectores v V que
definicion
v = (c1 P P1 + +cr P Pr )+(d1 QQ1 + +ds QQs )+(d1 + +ds )P Q D(L1 )+D(L2 )+hP Qi.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
82
Demostracion
Por tanto D(L1 +L2 ) es suma directa de D(L1 )+D(L2 ) y hP Qi, as que dim(L1 +L2 ) =
Si tiene dimension
de la dimension
es vaca, hay
dim(r + s) = 2, es decir, las rectas estan en un mismo plano. Si la interseccion
de D(r) D(s), que puede ser 1 o 0. En el primer caso, las rectas son
que mirar la dimension
paralelas, y en el segundo se cruzan.
Definicion
4.10 Dos variedades lineales L1 , L2 An (k) se dicen paralelas si D(L1 ) D(L2 )
o D(L2 ) D(L1 ). Se dice que L1 y L2 se cruzan si L1 L2 = y D(L1 ) D(L2 ) = {0}.
1
2
0
3
4.5.
coinciden
se cortan en un punto
son paralelas
se cruzan
Espacio eucldeo
En esta seccion
reales.
Definicion
4.11 El espacio eucldeo n-dimensional es el espacio afn An (R), donde el espacio
vectorial asociado V = Rn esta dotado del producto escalar hu, vi = u1 v1 + + un vn .
La existencia del producto escalar nos permite definir la distancia entre dos puntos
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
83
Definicion
4.12 Sean P, Q An (R) dos puntos. La distancia entre ellos se define como
Definicion
4.13 Dos variedades L1 , L2 An (R) se dicen perpendiculares si D(L1 )
D(L2 ) (o, equivalentemente, si D(L2 ) D(L1 ) ).
Dados dos subconjuntos A, B An (R), en general no existe una distancia mnima entre
y B el de numeros
negativos, podemos encontrar puntos en A y en B tan cercanos como
queramos, pero nunca dos puntos a distancia cero). Sin embargo, para variedades lineales
siempre existe la distancia mnima.
Teorema 4.7 Sean L1 , L2 An (R) dos variedades lineales no vacas y disjuntas. Entonces existen dos puntos P L1 y Q L2 tales que la distancia entre P y Q es mnima entre todas las
Demostracion
d(P 00 , Q00 )2 = ||P 00 Q00 ||2 = ||P 00 P + P Q + QQ00 ||2 = ||P Q||2 + ||P 00 P + QQ00 ||2 d(P, Q)2
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
84
Definicion
4.14 Sean L1 , L2 An (R) dos variedades. La distancia d(L1 , L2 ) entre ellas es la
menor distancia entre un punto de L1 y un punto de L2 .
El teorema anterior implica que, si dos variedades son disjuntas, entonces la distancia
entre ellas es positiva.
Como caso particular, calculemos la distancia entre un punto y un hiperplano. Un hiper
lineal a1 x1 + +an xn = b.
plano L es el conjunto de puntos definido por una unica
ecuacion
n
Sea P el punto (c1 , . . . , cn ) A (R). Por el teorema, la distancia entre P y un punto Q L
tor es (t1 c1 , . . . , tn cn ). Por otra parte, D(L) es el subespacio definido por la ecuacion
a1 x1 + + an xn = 0, por lo que su complemento ortogonal es el subespacio generado
por (a1 , . . . , an ). Por tanto, necesitamos que (t1 c1 , . . . , tn cn ) = (a1 , . . . , an ) para algun
R. Dicho de otra forma, ti = ci + ai para todo i = 1, . . . , n. Imponiendo que el punto Q
de L, obtenemos que
cumpla la ecuacion
a1 c1 + + an cn + (a21 + + a2n ) = b =
b a1 c1 an cn
a21 + + a2n
por lo que
|a1 c1 + + an cn b|
p
.
d(P, L) = d(P, Q) = ||(a1 , . . . , an )|| = || ||(a1 , . . . , an )|| =
a21 + + a2n
4.6.
Aplicaciones afines
Definicion
4.15 Una aplicacion f : An (k) Am (k) entre dos espacios afines sobre k se dice
Dicho de otra forma, para todo P y Q se tiene que f (Q) = f (P ) + f (P Q). En particular,
afn esta completamente determinada si conocemos la imagen de un punto y
una aplicacion
el homomorfismo f .
Sean R = (O, B) y S = (Q, C) sistemas de referencia de An (k) y Am (k) respectivamente.
las del vector
Las coordenadas de un punto P An (k) con respecto a R son, por definicion,
m
OP con respecto a B. Las de f (P ) A (k) con respecto a S son las del vector Qf (P ) con
respecto a C. Pero Qf (P ) = Qf (O) + f (O)f (P ) = Qf (O) + f (OP ), y las coordenadas de
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
85
1
(f (P ))tS
= M (f )R,S
1
(P )tR
0 0
1
(f (O))tS M ( f )B,C
!
,
que llamaremos matriz de f con respecto a los sistemas de referencia R y S. Como es habitual,
si n = m y R = S, se llamara simplemente matriz de f con respecto a R y se denotara por
M (f )R . Si R0 y S 0 son otros dos sistemas de referencia de An (k) y Am (k) respectivamente,
usando la formula
para el cambio de sistema de referencia obtenemos:
Teorema 4.8 (cambio de sistemas de referencia) Para toda aplicacion afn f : An (k)
Am (k) se tiene que
M (f )R0 ,S 0 = M (S, S 0 ) M (f )R,S M (R0 , R).
Veamos ahora que ocurre con las imagenes directa e inversa de variedades lineales me afn.
diante una aplicacion
Teorema 4.9 Sea f : An (k) Am (k) una aplicacion afn, y L = O + W An (k) una variedad
lineal, donde W es un subespacio de k n . Entonces f (L) Am (k) es una variedad lineal. Mas
Demostracion
Los puntos de L son los de la forma O + v con v W , por lo que los puntos de
f (L) son los de la forma f (O + v) = f (O) + f (v), es decir, los de la forma f (O) + w
Teorema 4.10 Sea f : An (k) Am (k) una aplicacion afn, y M Am (k) una variedad lineal.
Entonces f 1 (M ) An (k) es una variedad lineal.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
86
Demostracion
1
(f (P ))t
=B
1
(P )t
Ejemplo
En el espacio eucldeo An (R), sea L cualquier variedad no vaca. Para cada punto
0
L. Sean P otro punto. Los puntos pL (P ) y pL (P 0 ) estan en L, por lo que pL (P )pL (P 0 )
D(L). Ademas, P P 0 = pL (P )pL (P 0 ) + (P pL (P ) P 0 pL (P 0 )), y como P pL (P ) P 0 pL (P 0 )
n
n
en D(L) y uno en D(L) . Por tanto pL (P )pL (P 0 ) =
p
L (P P ), donde pL : R R es el
01r
01(nr)
1
Ir
0r(nr)
M (pL )R = 0r1
0(nr)1 0(nr)r 0(nr)(nr)
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
4.7. AFINIDADES
87
Teorema 4.11 Sean f : An (k) Am (k) y g : Am (k) Ar (k) dos aplicaciones afines. Entonces
Demostracion
lineal
g (f (P )f (Q)) =
g ( f (P Q)) = (
g f )(P Q), as que g f es una aplicacion
con g f = g f .
Ademas, para todo punto P An (k) se tiene que
((g f )(P ))tT = (g(f (P )))tT = M (g)S,T (f (P ))tS = M (g)S,T M (f )R,S (P )tR ,
por lo que la matriz de g f con respecto a R y T es M (g)S,T M (f )R,S .
4.7.
Afinidades
Definicion
4.16 Una afinidad es una aplicacion afn f : An (k) An (k) biyectiva.
Teorema 4.12 Sea f : An (k) An (k) una aplicacion afn. Las siguientes condiciones son
equivalentes:
1. f es una afinidad.
2. f es inyectiva.
3. f es sobreyectiva.
4. f : k n k n es un automorfismo.
Demostracion
Claramente (1) implica (2) y (3). Supongamos que f es inyectiva, veamos que f
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
88
Demostracion
(cont)
Supongamos ahora que f es sobreyectiva, y sea w k n . Fijado un punto P An (k),
debe existir otro punto Q tal que f (P ) + w = f (Q). Entonces w = f (P )f (Q) = f (P Q),
por lo que w Im( f ). Por tanto f es sobreyectiva, por lo que debe ser un automorfismo.
sean P, Q An (R) tales que f (P ) = f (Q). Entonces 0 = f (P )f (Q) = f (P Q), por lo
Teorema 4.13 Sea f : An (k) An (k) una afinidad. Entonces la aplicacion inversa f 1 :
An (k) An (k) tambien lo es, se cumple que f 1 = f 1 , y para todo sistema de referencia R de
An (k) se tiene que M (f 1 )R = M (f )1
R .
Demostracion
de dos
ma afirmacion
para la matriz de la composicion
1
n
aplicaciones afines, aplicada a IdA (k) = f f .
Definicion
4.17 Sea f : An (k) An (k) una afinidad. Una variedad lineal L An (k) se dice
fija por f si f (L) L.
Como f es una afinidad, f es un isomorfismo, por lo que D(f (L)) = f (D(L)) tiene la
que D(L) para cualquier L. Por tanto, si L es fija, f (L) debe ser igual a L.
misma dimension
si lo es para f 1 .
En particular, L es fija para f si y solo
Ejemplo
Es importante distinguir entre una variedad fija (es decir, tal que f (P ) L para todo
P L) y una variedad de puntos fijos (es decir, tal que f (P ) = P para todo P L). Por
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
4.7. AFINIDADES
89
Ejemplo (cont)
ejemplo, si f : A2 (R) A2 (R) es la afinidad que tiene como matriz
1 0 0
2 1 0
0 0 1
(es decir, f (x, y) = (2 x, y)), la recta x = 1 es una recta de puntos fijos, ya que todo
punto de la forma (1, y) es fijo. La recta y = 0 es fija, pero no de puntos fijos.
forman una variedad lineal. En general, una variedad lineal L = O + W es fija por f si y solo
Teorema 4.14 Sea f : An (k) An (k) una afinidad con matriz M con respecto al sistema de
referencia canonico, y L An (k) un hiperplano dado por la ecuacion a1 x1 + + an xn = b.
Demostracion
ecuacion
x1
b a1 an M .. = 0.
.
xn
defina el hiperplano L, debe ser un multiplo
Por tanto, para hallar los hiperplanos fijos por f basta hallar los autovectores de M t ,
de
y descartar los que sean multiplos
de (1, 0, . . . , 0) (que no corresponden a la ecuacion
hiperplano).
ningun
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
90
Ejemplo
Sea f : An (k) An (k) una afinidad tal que el homomorfismo f sea la multiplicacion
por un escalar 6= 0. Entonces la matriz de f es de la forma
1 0 0
a1
..
In
an
donde (a1 , . . . , an ) = f (O). Es decir, f (x1 , . . . , xn ) = (a1 + x1 , . . . , an + xn ). Los puntos
fijos de f son entonces las soluciones del sistema formado por las ecuaciones ( 1)xi =
tiene
ai para i = 1, . . . , n. Si = 1 (es decir, f es la identidad), este sistema solo
cuando f (O) = O (en cuyo caso f es la identidad). Si = 1 y f (O) 6= O, sea v =
solucion
Q An (k) se tiene que f (Q) = f (P ) + f (P Q) = P + P Q. Es decir, los puntos P, Q y
4.8.
Movimientos
Definicion
4.18 Una afinidad f : An (R) An (R) se dice un movimiento si preserva las
distancias, es decir, si d(f (P ), f (Q)) = d(P, Q) para todo par de puntos P, Q An (R).
Ejemplo
de vector v Rn es un movimiento, puesto que d(f (P ), f (Q)) =
1. La traslacion
si es una simetra central: d(f (P ), f (Q)) = ||f (P )f (Q)|| = ||P Q|| = ||d(P, Q)
solo
si = 1.
es igual a d(P, Q) si y solo
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
4.8. MOVIMIENTOS
91
1. f es un movimiento.
3. La matriz de f es ortogonal.
Demostracion
d(f (O), f (O + v)) = d(O, O + v) = ||v||. Pero d(f (O), f (O + v)) = ||f (O)f (O + v)|| =
(2) se cumple,
|| f (v)||, por lo que || f (v)|| = ||v||. Recprocamente, si la condicion
para todo par de puntos P, Q An (R) se tiene que d(f (P ), f (Q)) = ||f (P )f (Q)|| =
(2) implica que la matriz de f es orto|| f (v)|| = ||v||. Falta probar que la condicion
gonal.
Como las columnas de la matriz de f son las imagenes por f de los vectores de la
base canonica,
basta probar que { f (e1 ), . . . , f (en )} es una base ortonormal de Rn . Cada
|| f (ei ) + f (ej )||2 = h f (ei ) + f (ej ), f (ei ) + f (ej )i = h f (ei ), f (ei )i + h f (ej ), f (ej )i+
+2h f (ei ), f (ej )i = || f (ei )||2 + || f (ej )||2 + 2h f (ei ), f (ej )i = 2 + 2h f (ei ), f (ej )i.
Pero por otra parte, || f (ei ) + f (ej )||2 = || f (ei + ej )||2 = ||ei + ej ||2 = 2, de donde se
R = P + u (por lo que Q = R + v). Por el teorema de Pitagoras, ||P Q||2 = ||u||2 + ||v||2 .
Recordemos que
p
L es el homomorfismo que asigna a cada vector la parte en D(L) de su
como suma de un vector en D(L) y uno en D(L) , por lo que
descomposicion
p
L (v) = 0
y pL (u) = u.
Entonces L (P )L (Q) = L (P )pL (P )+pL (P )pL (Q)+pL (Q)L (Q) = pL (P )P +QpL (Q)+
u = pL (P )pL (Q) P Q+u = u(u+v)+u = uv. Por tanto ||L (P )L (Q)||2 = ||uv||2 =
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
92
Ejemplo (cont)
Con respecto a un sistema de referencia R formado por un punto O L y una base
ortonormal B = {v1 , . . . , vn } de Rn tal que los primeros r vectores sean una base de D(L)
y los n r ultimos
una base de D(L) , la matriz de L tiene la forma
01r
01(nr)
1
Ir
0r(nr)
M (L )R = 0r1
0(nr)1 0(nr)r I(nr)(nr)
4.9.
Clasificaci
on de movimientos en A2(R)
1 0 0
a
M
(
f)
b
donde (a, b) = f (0, 0) y M ( f ) es una matriz ortogonal 2 2. Como los vectores de modulo
1
2
[0, 2), M ( f ) se puede escribir como
en R son de la forma (cos(), sen()) para algun
cos() cos()
sen() sen()
con , [0, 2). Ademas las columnas deben ser ortogonales, por lo que cos() cos() +
sen() sen() = cos() = 0. Por tanto = /2 o 3/2. Si = +/2 o = 3/2,
y M ( f ) es de la forma
cos() sen()
.
sen() cos()
Los dos casos pueden distinguirse por el determinante: en el primer caso es 1, y en el segundo es 1.
Caso 1: det(M ( f )) = 1
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
DE MOVIMIENTOS EN A2 (R)
4.9. CLASIFICACION
93
Su matriz de coeficientes es
cos() 1 sen()
sen()
cos() 1
,
que tiene determinante cos()2 +12 cos()+sen()2 = 2(1cos()) > 0 (puesto que 6= 0).
unica:
2
fijo, que llamaremos P . Dado cualquier otro punto Q A (R), escribamos el vector P Q en
forma polar: P Q = (r cos(), r sen()) con r > 0 y [0, 2). Entonces
cos() sen()
r cos()
P f (Q) = f (P )f (Q) = f (P Q) =
=
sen() cos()
r sen()
r cos() cos() r sen() sen()
r cos( + )
=
=
,
r cos() sen() + r sen() cos()
r sen( + )
es decir, el vector P f (Q) se obtiene a partir del vector P Q girandolo un a ngulo . Diremos
que f es un giro de centro P y a ngulo . Si = , entonces P es el punto medio del segmento
Qf (Q) para todo punto Q, y f se denomina tambien simetra de centro P .
Caso 2: det(M ( f )) = 1
f (u) + f (v) u =
2
2
= P + u + v + u v u = P + u + v = Q.
2
2
2
2
de dicha
Por tanto, g es una simetra con eje la recta r = Q + hui, y f es la composicion
de vector u. Diremos que f es una simetra con deslizamiento de eje
simetra con la traslacion
es paralelo el eje.
r y vector u. Notese
que el vector de traslacion
En la practica, dado un movimiento con determinante 1, para clasificarlo hallamos la
imagen del punto P = ( a2 , 2b ) (el punto medio entre (0, 0) y su imagen). Si f (P ) = P , f es una
simetra de eje P + hui. En caso contrario, f es una simetra con deslizamiento de eje la recta
P f (P ) y vector P f (P ).
que pasa por P con direccion
g(Q) = f (Q) u = f (P ) +
en la siguiente tabla:
Resumimos la clasificacion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
94
det(M ( f ))
1
0
0
6= 0,
4.10.
Puntos fijos
Elementos
2
A (R)
identidad
traslacion
vector v
punto P
simetra central
centro P
punto P
giro
centro P , a ngulo
recta r
simetra
eje r
Clasificaci
on de movimientos en A3(R)
Caso 1: det(M ( f )) = 1
Como M ( f ) es una matriz ortogonal, todos sus autovalores complejos tienen valor absoluto 1. Ademas, los autovalores no reales siempre aparecen en pares conjugados, por lo
uno de ellos es real, los otros dos son de la
que al menos uno de ellos debe ser real. Si solo
forma a + bi y a bi con b 6= 0, y su producto es a2 + b2 > 0. Como el determinante es el
producto de los autovalores y es igual 1 (positivo), el autovalor real debe ser igual a 1. Si los
tres autovalores son reales (y por tango iguales a 1), al menos uno de ellos debe ser igual a
1 para que su producto sea 1.
En cualquier caso M ( f ) tiene un autovalor igual a 1. Los otros dos pueden ser o bien 1
trivialmente
caso, como M ( f ) es diagonalizable, existe una base B de R3 tal que f actua
sobre sus vectores, por lo que f debe ser la identidad. Entonces f es la identidad (si f (O) =
Supongamos ahora que M ( f ) tiene autovalores 1 con multiplicidad 1 y 1 con multiplicidad 2. Sea {u, v, w} una base ortonormal de autovectores, con f (u) = u, f (v) = v
y f (w) = w. Supongamos que f tiene un punto fijo P . Cualquier otro punto Q puede
escribirse como P + u + v + w, con , , R. Entonces
En particular, los puntos de la recta r = P + hui son fijos. Ademas, el vector Qf (Q) =
2v 2w es perpendicular a r, y el punto medio del segmento Qf (Q), que es P + u,
esta en r. Por tanto f es la simetra de eje r.
Si f no tiene puntos fijos, sea P A2 (R) un punto cualquiera. Pongamos f (P ) = P +u+
de f con la traslacion
de vector u. Entonces g es tambien
v + w. Sea g la composicion
= P + u + v + w + u v w u = P + u + v + w = Q.
2
2
2
2
2
2
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
DE MOVIMIENTOS EN A3 (R)
4.10. CLASIFICACION
95
de dicha
Por tanto, g es una simetra con eje la recta r = Q + hui, y f es la composicion
de vector u. Diremos que f es una simetra (axial) con deslizamiento
simetra con la traslacion
es paralelo el eje.
de eje r y vector u. Notese
que el vector de traslacion
1
1
f (v) = ( f (z) + f (z)) = ((cos() + sen()i)z + (cos() sen()i)z) =
2
2
1
= ((cos() + sen()i)(v + iw) + (cos() sen()i)(v iw)) = cos()v sen()w
2
y analogamente,
1
f (w) = ( f (z) f (z)) = sen()v + cos()w,
2i
Rf (Q) = f (v + w) = f (RQ): el punto f (Q) se obtiene girando el punto Q un a ngulo
con respecto al punto R. Diremos que f es un giro de eje r y a ngulo . Notemos que hay dos
depende de en que sentido se
movimientos distintos que corresponden a esta descripcion:
realice el giro.
Supongamos ahora que f no tiene puntos fijos. Pongamos f (O) = O +u+v+w, y sea
de f con la traslacion
de vector u. Entonces g es tambien un movimiento
g la composicion
g(P ) = g(O) + u + f (v + w) = O + u + v + w + f (v + w)
si v + w = v + w + f (v + w) (Id f )(v + w) =
y por tanto g(P ) = P si y solo
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
96
(Id f )(v + w) = v + w
que tiene determinante 2 2 cos() 6= 0, por lo que la ecuacion
unica
tiene solucion
en , : en particular, g tiene puntos fijos y por tanto es un giro de a ngulo
de g con una traslacion
de vector u,
con respecto a un cierto eje r, y f es la composicion
paralelo a r. Diremos que f es un giro con deslizamiento o movimiento helicoidal de eje r, a ngulo
y vector u.
En la practica, si f es una simetra axial o un giro (con o sin deslizamiento), para hallar el
eje se toma un punto arbitrario P = (x, y, z) y se impone que el vector P f (P ) que lo une con
es conocida: es la del autovector asociado
su imagen por f sea paralelo al eje (cuya direccion
al autovalor 1). Esto nos da las ecuaciones implcitas del eje, a partir del cual es facil hallar
los restantes elementos.
Caso 2: det(M ( f )) = 1
Ahora hay tres posibilidades con respecto a los autovalores de f : 1 con multiplicidad
3, 1 con multiplicidad 1 y 1 con multiplicidad 2, o 1 con multiplicidad 1 y un par de
conjugados no reales de la forma cos() sen()i con (0, ).
En el primer caso, como f es diagonalizable, existe una base B de R3 tal que todos sus
f , concluimos que f = Id. Denotemos por P = O+ 21 Of (O) el punto medio del segmento
Of (O). Sea Q = O + v cualquier otro punto. Entonces f (Q) = f (O) + f (v) = f (O) v,
por lo que Qf (Q) = Of (O) 2v y Q + 12 Qf (Q) = O + v + 12 Of (O) v = P . Es decir, para
cualquier punto Q, el punto medio del segmento Qf (Q) es el mismo punto P . Por tanto f es
la simetra de centro {P }.
Veamos ahora el caso en el que f tiene autovalor 1 con multiplicidad 2, ademas del 1.
as que por lo visto anteriormente g es la simetra de centro = P + hu, vi, y f es la com de g con la traslacion
de vector u + v. Diremos que f es una simetra (plana) con
posicion
deslizamiento de centro y vector u + v (paralelo a ).
Finalmente, veamos el caso en el que f tiene un par de autovalores no reales conjugados:
cos() sen()i con (0, ). Sea {u, v, w} una base ortonormal de R3 tal que w sea un
autovector asociado a 1. Pongamos f (O) = O + u + v + w, y sea P = O + 2 u + 2 v + 2 w
el punto medio del segmento Of (O). Denotemos por el plano P + hu, vi, por la simetra
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
DE MOVIMIENTOS EN A3 (R)
4.10. CLASIFICACION
97
= O + u + v + f ( u + v) + w = P + u + v + f ( u + v) P + hu, vi
2
2
2
2
2
2
2
de w, es decir, g es un giro
as que el vector P g(P ) no tiene componente en la direccion
con la simetra de centro (perpendicular al eje).
sin deslizamiento, y f es su composicion
Diremos que g es una simetra rotacional de centro , eje r y a ngulo . En este caso, como en
uno
el del giro directo, existen dos movimientos distintos que responden a esta descripcion,
por cada sentido de giro. Notemos que una simetra rotacional tiene un unico
punto fijo, la
de y r. Conociendo el punto fijo P , la recta r sera P + hwi, donde w es un
interseccion
autovector asociado a 1, y el plano sera P + hwi .
en la siguiente tabla:
Resumimos la clasificacion
det(M ( f ))
Autovalores de f
1, 1, 1
1, 1, 1
1, 1, 1
1, 1, 1
1, cos() sen()i
1, cos() sen()i
1, 1, 1
1, 1, 1
1, 1, 1
1, cos() sen()i
Puntos fijos
A2 (R)
recta r
recta r
punto P
plano
punto P
identidad
traslacion
simetra axial
simetra axial con desl.
giro
giro con deslizamiento
simetra central
simetra plana
simetra plana con desl.
simetra rotacional
Elementos
vector v
recta r
recta r, vector v||r
recta r
eje r, a ngulo , vector v||r
centro P
plano
plano , vector v||
plano , eje r, a ngulo
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
98
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
Ap
endice A
Resultados auxiliares
A.1.
Aplicaciones
3. La aplicacion
reales (a, b) su suma:
f (a, b) = a + b.
es la
Definicion
A.1 Sean f : A B y g : B C dos aplicaciones. Su composicion
aplicacion g f : A C que asocia a cada a A el elemento g(f (a)) C, es decir, el elemento
obtenido al aplicar g a la imagen de a por f .
Definicion
A.2 Sea f : A B una aplicacion.
f se dice inyectiva si las imagenes por f de dos elementos cualesquiera distintos de A son
distintas.
f se dice sobreyectiva si todo elemento de B es imagen por f de algun
elemento de A.
f se dice biyectiva si es a la vez inyectiva y sobreyectiva.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
99de Algebra.
APENDICE
A. RESULTADOS AUXILIARES
100
Definicion
A.3 Sea f : A B una aplicacion. Si C A es un subconjunto, la imagen de C es
el subconjunto f (C) B formado por las imagenes por f de los elementos de C. Si D B es un
subconjunto, la contraimagen de D es el subconjunto f 1 (D) A formado por los elementos
de A cuya imagen esta en D.3
Ejemplo
dada por f (x) = x2 . La imagen por f del intervalo
Sea f : R R la aplicacion
[1, 1] es el intervalo [0, 1]. La contraimagen del intervalo [1, 1] es el intervalo [1, 1].
La contraimagen del intervalo [2, 1] es el conjunto vaco.
A.2.
Ejemplo
en el conjunto de los numeros
el de los numeros
racionales y en el de los numeros
reales. Tambien lo son la resta y el
producto. El cociente no lo es, puesto que no esta definido si el segundo elemento es
cero.
3
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
101
Definicion
A.5 Una operacion en el conjunto A se dice asociativa si (a b) c = a (b c)
para todos a, b, c A. Una operacion se dice conmutativa si a b = b a para todos a, b A.
Ejemplo
Definicion
A.6 Sea una operacion en el conjunto A. Un elemento neutro para es un elemento e A tal que e a = a e = a para todo a A.
Ejemplo
Definicion
A.7 Sea una operacion en el conjunto A con elemento neutro e, y sea a A. Un
inverso de a es un elemento a0 A tal que a a0 = a0 a = e.
Definicion
A.8 Un grupo es un conjunto A con una operacion asociativa tal que existe un
elemento neutro y todo elemento de A tiene inverso. Si la operacion es conmutativa, diremos que
el grupo es abeliano.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
APENDICE
A. RESULTADOS AUXILIARES
102
Ejemplo
suma,
El conjunto de los numeros
enteros es un grupo abeliano con la operacion
producto (no todo elemento tiene inverso). El conjunto de los
pero no con la operacion
numeros
reales es un grupo abeliano con la operacion
producto (el 0 no tiene inverso). Sin embargo, si le quitamos el 0, s que es un grupo para
el producto.
Definicion
A.9 Un cuerpo es un conjunto k con dos operaciones, llamadas suma y producto,
tales que:
1. k con la operacion suma es un grupo abeliano. Denotemos por 0 su elemento neutro.
2. k {0} con la operacion producto es un grupo abeliano.
3. Se cumple la propiedad distributiva: a (b + c) = a b + a c para todos a, b, c k.
Es decir, en un cuerpo se cumplen los requisitos necesarios para poder sumar, restar,
multiplicar y dividir por cualquier elemento distinto de cero, de manera que se cumplan las
de la forma a x + b = c
propiedades habituales. En particular, en un cuerpo toda ecuacion
si a 6= 0.
tiene una unica
solucion
Ejemplo
A.3.
Polinomios
de la forma
Sea k un cuerpo. Un polinomio con coeficientes en k es una expresion
P (x) = an xn + an1 xn1 + + a1 x + a0
donde a0 , a1 , . . . , an k y x es una variable indeterminada. Si an 6= 0, diremos que P (x) tiene
grado n. El conjunto de polinomios con coeficientes en k se denota por k[x]. Dos polinomios
pueden sumarse y multiplicarse, teniendo en cuanta la regla de los exponentes xa xb = xa+b .
El producto de dos polinomios de grados d y d0 es un polinomio de grado d + d0 . El conjunto
suma (pero no para el producto).
k[x] es un grupo abeliano para la operacion
(tambien denotada por P ) de k en
Todo polinomio P (x) k[x] define una aplicacion
s mismo, que asocia a cada a k el elemento P (a) obtenido al sustituir la variable x por a
correspondiente en k.
en P y realizar la operacion
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
A.4. NUMEROS
COMPLEJOS
103
Ejemplo
Si k = R y P (x) = 1 + 2x x2 , entonces P (0) = 1, P (1) = 2 y P (1) = 2.
Definicion
A.10 Sea P (x) k[x] un polinomio. Una raz de P (x) es un elemento a k tal
que P (a) = 0.
Teorema A.2 Un elemento a k es raz del polinomio P (x) k[x] si y solo si el polinomio
P (x) es un multiplo
Si a es una raz de P (x), podemos escribir P (x) = (x a)Q(x). Si ahora a es tambien raz
polinomio R(x), por lo que P (x) = (x
de Q(x), se tiene que Q(x) = (x a)R(x) para algun
2
del tipo P (x) = (x a)m S(x),
a) R(x). Continuando de esta forma, llegamos a una expresion
donde a ya no es raz de S(x). El entero m es la multiplicidad de la raz a.
Definicion
A.11 Si a k es una raz de P (x) k[x], la multiplicidad de a es el mayor entero
m tal que P (x) sea multiplo
de (x a)m .
P (x) es multiplo
de (x a1 )m1 (x ar )mr , por lo que el grado de P (x) debe ser como
Corolario A.3 La suma de las multiplicidades de las races de un polinomio P (x) k[x] es a lo
sumo igual a su grado.
A.4.
N
umeros complejos
Definicion
A.12 Un numero
complejo es una expresion z de la forma a + bi, donde a, b R
son numeros
complejos se denota
por C.
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html
APENDICE
A. RESULTADOS AUXILIARES
104
Los numeros
reales pueden identificarse con los numeros
complejos que tienen parte
Definicion
A.13 El conjugado de un numero
complejo z = a +
bi es el numero
complejo
z = a bi. El modulo
o valor absoluto de z es el numero
real |z| = a2 + b2 .
de conjugacion
es conmuta con sumas y productos: z1 + z2 = z1 + z2 , y
La operacion
z1 z2 = z1 z2 . El modulo
conmuta con el producto: |z1 z2 | = |z1 | |z2 |, pero no con la suma.
Si identificamos el numero
complejo a + bi con el punto (a, b) del plano cartesiano, su
modulo
no es mas que su distancia al origen de coordenadas. El producto z z es igual a
Por tanto, si P (x) tiene grado n, aplicando el teorema n 1 veces deducimos que P (x)
puede descomponerse como P (x) = an (x 1 ) (x n ). Es decir, todo polinomio en
C[x] de grado n tiene exactamente n races si las contamos tantas veces como indique su
multiplicidad.
Si P (x) R[x] es ahora un polinomio con coeficientes reales, y C es una raz compleja
de P (x), entonces P () = 0. Tomando conjugados en esta igualdad, y teniendo en cuenta
Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html