Sei sulla pagina 1di 41

LGEBRA LINEAL I

15 de noviembre de 2012
UD 1

Sistemas de ecuaciones.
El mtodo de Gauss-Jordan.
Teorema de Rouch- Frobenius.
El determinante.
Aplicaciones del determinante.

1
SISTEMAS DE ECUACIONES LINEALES.

EL MTODO DE GAUSS-JORDAN

SISTEMAS DE ECUACIONES LINEALES

Denicin
Una ecuacin lineal es una expresin de la forma:

a1 x1 + a2 x2 + .................. + an xn = b

donde los coecientes ai y el trmino independiente b son escalares:

a1 , a2 , ......, an , b K = R o C

y x1 , x2 , ........., xn son las incgnitas o variables.


La solucin de una ecuacin lineal es una serie de nmeros 1 , 2 , ..........., n que verican:

a1 1 + a2 2 + ........ + an n = b
entonces la ecuacin se denomina compatible.
Una ecuacin del tipo 0x1 + 0x2 + + 0xn = b 0 = b se denomina:
Ecuacin trivial si b = 0
Ecuacin incompatible si b 6= 0

Denicin
Un sistema lineal es una lista nita de m ecuaciones con n incgnitas de la forma:


a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2

..




.
am1 x1 + am2 x2 + . . . + amn xn = bm

donde cada la es una ecuacin lineal diferente, donde tenemos n incgnitas (x1 , x2 , . . . , xn ) en todas la ecua-
ciones.
Otro
Pn tipo de notacin sera:
j=1 aij xj = bi (i = 1, . . . , m) en donde las incgnitas son xj , los coecientes aij R y los trminos indepen-
dientes bi R.

SISTEMA DE ECUACIONES HOMOGNEO

Denicin
sistema lineal se denomina homogneo si todos sus trminos independientes son nulos:
Un

a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn = 0

Pn
.. j=1 aij xj = 0 (i = 1, . . . , m)




.
am1 x1 + am2 x2 + . . . + amn xn = 0

2
Denicin
Diremos que un sistema lineal es:
Compatible : si admite alguna solucin del sistema.
Determinado : si existe una nica solucin.
Indeterminado : si existen innitas soluciones.

Incompatible : si no existe ninguna solucin al sistema.


Nota:
Un sistema homogneo siempre admite la solucin trivial :

xj = 0 j = 1, . . . , n

COMBINACIONES LINEALES DE ECUACIONES

Denicin
Dos sistemas de ecuaciones lineales son equivalentes si toda solucin de uno lo es del otro.
Nuestra estrategia para resolver un sistema lineal consistir en obtener sucesivamente sistemas equivalentes cada
vez ms sencillos.
Para obtener sistemas de ecuaciones lineales equivalentes podemos realizar las siguientes operaciones:
1. Intercambiar dos ecuaciones
2. Multiplicar una ecuacin por un escalar no nulo
3. Aadir a una ecuacin un mltiplo no nulo de otra
Si sabemos que una ecuacin dada de nuestro sistema es combinacin de otras, nos encontramos ante una ecuacin
superua que podemos eliminar, simplicando as el sistema.
Nota: Las operaciones elementales conservan la independencia en las ecuaciones.

MTODO DE ELIMINACIN DE GAUSS

Denicin
Un sistema lineal se denomina escalonado reducido cuando la primera incgnita de cada ecuacin tiene coeciente
1 y no aparece en el resto de ecuaciones:

x1 + a12 x2 + . . . + a1n xn = b1


x2 + . . . + a2n xn = b2


..




.
xn = bm

Nota: Un sistema escalonado reducido no puede contener ni ecuaciones incompatibles ni triviales.

Mtodo escalonamiento de Gauss-Jordan

Mediante este mtodo se transforma cualquier sistema de ecuaciones en un sistema escalonado reducido, apli-
cando sucesivamente operaciones elementales.

3
Algoritmo de Gauss-Jordan
Paso 0: hacemos k = 1
Paso 1: examinamos las ecuaciones:
Si hay alguna incompatible, hemos terminado: el sistema es incompatible.
Si hay ecuaciones triviales se suprimen.

Paso 2: se elige la ecuacin cuya primera incgnita tenga ndice mnimo.


Paso 3: se divide la ecuacin elegida por el coeciente de su primera incgnita.
Paso 4: a cada ecuacin le restamos la ecuacin obtenida anteriormente multiplicada por el coeciente que en
ella tiene su incgnita.
Paso 5: repetimos con la siguiente incgnita hasta obtener un sistema reducido escalonado.
Otra manera de ver el Algoritmo consiste en aplicar las operaciones anteriores para obtener ecuaciones lineales
equivalentes con el n de ir obteniendo un sistema de ecuaciones escalonado:
1. Si es necesario intercambiar la primera ecuacin con otra para que x1 aparezca en la primera de las ecuaciones.
2. Eliminar x1 de todas las ecuaciones excepto de la primera.
3. Repetir el proceso con x2 , x3 , . . . , xn hasta obtener un sistema escalonado:

a11 x1 + a12 x2 + . . . + a1n xn = b1


a22 x2 + . . . + a2n xn = b2


..




.
arn xn = br

Nota:
Las incgnitas de un sistema escalonado reducido se denominan:
principales: la primera variable de cada ecuacin
secundarias o parmetros: el resto de variables

Las ecuaciones de un sistema escalonado reducido son independientes.

4
DISCUSIN Y RESOLUCIN DE UN SISTEMA ESCALONADO REDUCIDO

Sea un sistema escalonado reducido con las incgnitas principales x1 , . . . , xr y con las incgnitas secundarias
xr+1 , ..., xn del modo:


x1 a1,r+1 xr+1 + . . . + a1n xn = b1

x2

a2,r+1 xr+1 + . . . + a2n xn = b2
.. ..


. .

xr + ar,r+1 xr+1 + . . . + arn xn = br

Para resolver este tipo de sistemas basta con despejar las incgnitas principales:

x1 = b1 a1,r+1 xr+1 . . . a1n xn


x2 = b2 a2,r+1 xr+1 . . . a2n xn

..




.
xr = br ar,r+1 xr+1 . . . arn xn

De este modo, denominamos j = xj j = r + 1, ..., n para obtener las denominadas ecuaciones paramtricas:


x1 = b1 a1,r+1 r+1 . . . a1n

x2 = b2 a2,r+1 r+1 . . . a2n n



.

..





xr = br ar,r+1 r+1 . . . arn n

xr+1 = r+1



.

..






xn = n

Una vez tenemos los denominados parmetros r+1 , ..., r K , entonces si:
r = n: el sistema no tiene incgnitas secundarias, por tanto es SCD con solucin nica.
r < n: el sistema tiene al menos una incgnita secundaria, por tanto es SCI con una solucin diferente para
cada valor de (r+1 , ..., n ) K nr .

Proposicin
Dos sistemas escalonados reducidos compatibles equivalentes son idnticos.
De esto se deduce que:
1. Un sistema compatible es equivalente a un nico sistema reducido escalonado.
2. Dos sistemas compatibles equivalentes se pueden transformar uno en otro mediante operaciones elementales.

Demostracin :
Un sistema y su homogneo tienen las mismas incgnitas: x1 , ..., xn
tienen las mismas incgnitas principales?
Suponemos que no:
x1 , ..., xi1 son las principales en los dos sistemas
xi es principal slo en uno de los sistemas
Si hacemos xi+1 = ... = xn = 0 obtenemos otros dos sistemas equivalentes con las incgnitas x1 , ..., xi pero:
el sistema con las incgnitas principales x1 , ..., xi no tiene incgnitas secundarias, por lo que es un SCD
el sistema con las incgnitas principales x1 , ..., xi1 tiene una incgnita secundaria xi , por lo que es un SCI
Esto es una contradiccin, entonces los dos sistemas deben tener las mismas incgnitas principales.

5
tienen los mismos trminos independientes?
Hacemos nulas las variables secundarias xr+1 , ..., xn = 0 , entonces:

x1 = b1 , ..., xr = br

x1 = b01 , ..., xr = b0r = bi = b0i


As pues, dos sistemas escalonados reducidos compatibles equivalentes son idnticos.
Veamos ahora la demostracin de las dos deducciones:
1. un sistema compatible es equivalente a un nico sistema escalonado reducido?
Si un sistema compatible es equivalente a dos sistemas escalonados reducidos, stos son compatibles equiva-
lentes y por la proposicin tenemos que son iguales, por tanto es equivalente a un nico sistema escalonado
reducido.
2. dos sistemas compatibles equivalentes se pueden transformar uno en otro mediante operaciones elementales?
Si tenemos dos sistemas compatibles equivalentes, aplicamos el mtodo de Gauss-Jordan para obtener dos
sistemas escalonados reducidos que sern compatibles equivalentes, y por el enunciado de la proposicin, stos
son idnticos, llegando a ellos mediante operaciones elementales.

TEOREMA DE ROUCH-FROBENIUS

MATRICES

Denicin
Una matriz m n es una tabla de nmeros del cuerpo K formada por m las y n columas, tal que:

a11 a12 a1n
a21 a22 a2n
A= . .. .. = (aij ) 1 i m, 1 j m, aij K

.. . .
am1 am2 amn
Denominamos coeciente de una matriz A al elemento aij situado en la la i y la columna j.

Tipos de matrices:
Si m = n la matriz A es una matriz cuadrada.
Si m = n, aij = 0 i 6= j, aij = 1 i = j , A es la matriz identidad de orden n y la denotaremos por In .
Para denir
(
la matriz identidad se utiliza la denominada delta de Kronecker:
1 para i = j
ij = , In = (ij )
0 para i 6= j

Denotaremos Mmn (K) al conjunto de todas las matrices m n con coecientes en K.

Operaciones elementales por las


Estas operaciones son las mismas que para las ecuaciones lineales:
1. Sustituir una la por el resultado de multiplicarla por un escalar no nulo.
2. Sustituir una la por el resultado de sumarle otra multiplicada por un escalar no nulo.
3. Intercambiar dos las.

6
Denicin. Matrices equivalentes
Diremos que dos matrices A y B son equivalentes por las si podemos transformar una en otra mediante operaciones
elementales.

MATRIZ ESCALONADA

Denicin. Matriz escalonada reducida por las


Denominamos matriz escalonada reducida por las a la matriz cuyas las no nulas preceden a las nulas y el primer
coeciente no nulo de cada la precede al primer coeciente no nulo de la siguiente y es 1 (el nico no nulo de su
columna)

1 a12 a13 a1n

0 1 a23 a2n

0 0 1 a3n
A= .. .. .. .. .. .. ..

. . . . . . .



0 0 0 1 a1k
0 0 0 0 0
Nota:
1 3 0 5
0 0 1 0
A= no es una matriz escalonada reducida por las
0 0 0 0
0 0 0 2

1 3 0 5
0 0 1 0
B= es una matriz escalonada reducida por las
0 0 0 1
0 0 0 0

Proposicin. Escalonamiento de matrices


Toda matriz no nula es equivalente por las a una matriz escalonada reducida.

Demostracin :
Nos basamos en un algoritmo similar al de Gauss-Jordan para la demostracin.
1. Se hace k = 1
2. Si todas las las a partir de la k -sima inclusive son nulas, hemos terminado.
3. Si no, buscamos un coeciente no nulo aik jk con jk mnimo.
4. Se divide la la ik -sima por su primer coeciente no nulo, aik jk , y se intercambia con la k -sima la.
5. A cada la distinta de la nueva k -sima le restamos sta multiplicada por el coeciente jk -simo de aqulla.
6. Se hace k=k+1 y volvemos al paso 1.
Ejemplo:

1 2 1
Sea la matriz A = 3 7 5
2 6 8
Tenemos
a11 = 16= 0
1 2 1 1 2 1 1 2 1 1 2 1 f1 2f2
3 7 5 f2 3f1 0 1 2 a22 = 1 6= 0 0 1 2 f2 f3 0 1 0
2 6 8 f3 2f1 0 2 6 f3 2f2 0 0 2 f3 : 2 0 0 1
1 0 1 f1 f3 1 0 0
0 1 0 0 1 0
0 0 1 0 0 1

7
Proposicin
Dos matrices A1 y A2 Mmn (K) son equivalentes por las si, y solo si, los sistemas homogneos A1 xt = 0 y
A2 xt = 0 tienen las mismas soluciones.

Demostracin:

(=)
Si A1 y A2 son equivalentes por las, las operaciones elementales que transforman A1 en A2 se traducen en op-
eraciones elementales que transforman el sistema A1 xt = 0 en el sistema A2 xt = 0 y si los sistemas A1 xt = 0 y
A2 xt = 0 son equivalentes entonces tienen las mismas soluciones.
(=)
A1 xt = 0 y A2 xt = 0 tienen las mismas soluciones = A1 xt = 0 y A2 xt = 0 son equivalentes =A1 xt = 0 se
transforma en A2 xt = 0 por medio de operaciones elementales =A1 se transforma en A2 por medio de operaciones
elementales.

Proposicin
Si dos matrices escalonadas reducidas R1 , R2 Mmn (K) son equivalentes por las, entonces son iguales.

Demostracin:
Por la proposicin anterior tenemos que:
R1 y R2 son equivalentes por las R1 xt = 0 y R2 xt = 0 tienen las mismas soluciones.
Como los sistemas escalonados reducidos R1 xt = 0 y R2 xt = 0 tienen las mismas soluciones, entonces los dos
sistemas son iguales = R1 = R2

Corolario
Una matriz es equivalente por las a una nica matriz escalonada reducida.

Denicin. Rango
Denominamos rango por las de una matriz A, rg(A), al nmero de las no nulas de la nica matriz escalonada
reducida equivalente por las a A, es decir, al mximo nmero de las independientes de A.

Proposicin
Sea A Mmn (K), entonces:
1. rg(A) m, rg(A) n
2. rg(A) es mximo si rg(A) = r, r = min{m, n}

Demostracin :
Suponemos que A tiene r las independientes.
Denotamos A' a la matriz resultante de hacer cero las restantes s las que dependen de las anteriores r las:
(
Axt = 0
son equivalentes = A, A0 son equivalentes por las = rg(A) = rg(A0 ) = r que por el escalon-
A0 x t = 0
amiento de la matriz, el nmero de las no nulas no puede exceder al nmero de columnas ni de las.

Proposicin
Si varias las son independientes y les aadimos una que no depende de ellas, obtenemos de nuevo las independi-
entes.
En particular, dada una la a no nula, entonces:
 
a b
rg = 1 + rg(A)
0 A

8
Demostracin :
Suponemos que las las a1 , a2 , . . . , ar son independientes y otra la c no depende de ellas, para que esto ocurra, las
las c, a1 , a2 , ..., ar deben ser independientes, en caso contrario la la c dependera de las anteriores, cosa que nos
llevara a una contradiccin.

Denicin. Matriz ampliada


Sea un sistema lineal:

a x + + a1n xn = b1
11 1

..

.

a
m1 x1 + + amn xn = bm
cuya escritura matricial es:

Axt = bt
con A = (aij ) la matriz de coecientes de las incgnitas del sistema.
Denimos la matriz ampliada como:

a11 a1n b1
.. .. .. = (A|bt )
A . . .
e=

am1 amn bm

Teorema de Rouch-Frobenius

Un sistema lineal Axt = bt con n incgnitas es compatible si, y slo si, rg(A) = rg(A)
e.
En tal caso, el sistema compatible determinado si, y slo si, rg(A) = rg(A)
e = n.

Demostracin :
Aplicando el algoritmo de Gauss-Jordan al sistema, a la matriz A y a su ampliada Ae, obtenemos la matriz escalonada
reducida R y Re que slo dieren en la ltima columna, entonces:

rg(R) = rg(R)
e = rg(A) = rg(A)
e

Un sistema es compatible determinado si, y slo si, todas sus variables son principales, es decir, si rg(A) =
rg(R) = n.

Proposicin
El rango por las de una matriz coincide con su rango por columnas, es decir, el mximo nmero de las indepen-
dientes es igual al mximo nmero de columnas independientes.

Denicin
La traspuesta de una matriz A = (aij ) es la matriz At = (bij ) denida por bij = aji . Las las de la matriz traspuesta
son las columnas de la matriz dada.
Nota: rg(A) = rg(At )

9
OPERACIONES CON MATRICES

Una forma de representar matrices es por cajas, matrices menores que forman una matriz mayor:
 
A B
C D
donde el nmero de las de A y B coincide, como tambin coinciden el nmero de las de C y D, el nmero de
columnas de A y C , y el nmero de columnas de B y D.

Operaciones lineales

Suma
La suma de dos matrices A = (aij ), B = (bij ) Mmn (K) es la matriz suma:

A + B = (aij + bij ) Mmn (K)


Propiedades:
Asociativa: A + (B + C) = (A + B) + C
Conmutativa: A + B = B + A
Tiene elemento neutro, la matriz nula formada por ceros: A + 0 = A
Toda matriz tiene su matriz opuesta:

A = (aij ), A = (aij ) / A + (A) = 0

(A + B)t = At + B t

Producto por escalares


El producto de una matriz A = (aij ) Mmn (K) y un nmero K es la matriz:

A = (aij )
Propiedades:
Distributiva del producto respecto a la suma:
(A + B) = A + B
( + )A = A + A
Asociativa: ()A = (A)
El producto por el escalar = 1 no altera la matriz.
(A)t = At

Nota: El rango de una matriz no varia al multiplicarla por un escalar no nulo.

Proposicin
Sean A, B Mmn (K) se cumple que:

|rg(A) rg(B)| rg(A + B) rg(A) + rg(B)

10
Demostracin :
rg(A + B) rg(A) + rg(B)?
     
A+B A+B A
rg(A + B) = rg rg = rg rg(A) + rg(B)
0 B B
|rg(A) rg(B)| rg(A + B)? rg(A) rg(A + B) + rg(B)?

rg(A) = rg(A + B B) = rg((A + B) + (B))

rg(A + B) + rg(B) = rg(A + B) + rg(B)

Producto de matrices
El producto de dos matrices A = (aij ) Mmn (K), B = (bkj ) Mnp (K) es la matriz:

A B = (cij ) Mmp (K)


n
cuyos coecientes son: cij =
P
aik bkj
k=1
Propiedades:
Asociativa:
(A B) C = A (B C)
(A B) = (A) B = A (B) K
Distributiva del producto respecto a la suma:
A (B + C) = A B + A C
(A + B) C = A C + B C
Sean Im , In las matrices identidad de orden m y n:

Im A = A = A In A Mmn (K)
t t t
(A B) = B A
Nota: El producto de matrices no es conmutativo.

Proposicin.
Combinaciones de las y columnas en el producto de matrices
Sea el producto de matrices C = AB se cumple:
Una combinacin de las (respectivamente columnas) en C se obtiene haciendo la misma combinacin en A y
despus multiplicando por B (respectivamente en B y despus multiplicando por A).
Nota: Lo mismo vale para las operaciones elementales incluido el intercambio de las o columnas.

Demostracin :
La la i -sima de C se obtiene de multiplicar la la i -sima de A por las columnas de B , de ah que cualquier
intercambio de las en A se produce igual en C .
Veamos ahora las combinaciones de las:
Sean , K , elegimos los ndices i, j . Sea A0 la matriz que se obtiene al cambiar la la i -sima ai de A por la
combinacin ai + aj y C 0 la que resulta de hacer lo mismo en la matriz C .
C 0 y D = A0 B son iguales? son iguales las las i-simas de ambas matrices
X X X X
dil = a0ik bkl = (aik + ajk )bkl = aik bkl + ajk bkl =
k k k k

= cil + cjl = c0il 0


C =AB 0

11
Proposicin
Sean las matrices A Mmn (K) y B Mnp (K) se cumple que:

rg(AB) min{rg(A), rg(B)}

Demostracin :
Sea C = AB Mmp (K). Si la la i -sima de A depende de sus anteriores, lo mismo le pasa a la matriz C y como
el rango es el mximo de las independientes:

C = AB, rg(C) rg(A)


Si la columna j -sima de B depende de sus anteriores, lo mismo le pasa a la matriz C :

C = AB, rg(C) rg(B)


Otra manera de verlo es:

rg(C) = rg(C t ) = rg(B t At ) rg(B t ) = rg(B)

Denicin. Matrices cuadradas


Las matrices cuadradas son las que tienen el mismo nmero de las que de columnas.
El conjunto de todas las matrices cuadradas de orden n se denota como Mn (K).
La diagonal principal de una matriz cuadrada A = (aij ) est formada por los coecientes aii .
Una matriz triangular es una matriz cuadrada cuyos coecientes no nulos estn en la diagonal principal o en un
slo lado respecto a la diagonal.
Una matriz diagonal es una matriz cuadrada cuyos coecientes no nulos estn en la diagonal principal.
Ejemplo: la matriz identidad In es una matriz diagonal.

Matrices invertibles

La multiplicacin de matrices es una operacin bien denida en Mn (K) por lo que pueden existir matrices
inversas.

Denicin
Una matriz cuadrada A de orden n se llama invertible o regular si existe otra matriz C Mn (K) tal que:

AC = CA = In
La matriz C es nica y se denomina inversa de A:

C = A1

Demostracin de la unicidad de la inversa:


Suponemos que existen C, C 0 matrices inversas de A, entonces:

AC = CA = In

AC 0 = C 0 A = In

C 0 = C 0 In = C 0 (CA) = C 0 (AC) = (C 0 A)C = In C = C = C0 = C

Proposicin
Una matriz cuadrada es invertible si, y slo si, tiene rango mximo.

12
Proposicin
El producto de dos matrices es invertible si, y slo si, son invertibles ambas matrices; ya que el rango del producto
es mximo si, y slo si, lo es el de cada factor.

Demostracin :
(=)
Si AB es invertible entonces:

C / C(AB) = In = (AB)C
Por la propiedad asociativa:

C(AB) = (CA)B = In = (AB)C = A(BC)


entonces: CA es la inversa de B y BC es la inversa de A.

(=)
Si A, B son invertibles entonces B 1 A1 es la inversa de AB
Nota: El conjunto de las matrices invertibles de orden n se denota GL(n, K) o GL(n) denominado Grupo lineal
(es un grupo con la multiplicain de matrices).

Propiedad
Si A es una matriz cuadrada invertible de orden m y B es una matriz m n, entonces:

rg(AB) = rg(B)

Demostracin :
Sabemos que rg(AB) rg(B)
Por otro lado:

rg(B) = rg((A1 A)B) = rg(A1 (AB)) rg(AB)


Si hemos obtenido:
rg(AB) rg(B)
= rg(AB) = rg(B)
rg(B) rg(AB)

Clculo de la inversa
La matriz inversa se obtiene en realidad resolviendo sistemas lineales.
Supongamos que A es una matriz cuadrada de orden n, consideremos los sistemas:
(j)
Axt = (1, 0, . . . , 0)t , . . . , Axt = (0, . . . , 1 , . . . , 0)t , . . . , Axt = (0, . . . , 0, 1)t
cuyas soluciones, si existen, son las columnas de A1 .
Podemos resolverlo aplicando operaciones elementales a la matriz (A|In ) y obtendremos una matriz escalonada
reducida de la forma (In |C) cuando A sea invertible, siendo C = A1 .

(A|In ) (In |A1 )

Potenciacin
Las potencias de una matriz cuadrada A Mn (K) se denen como:

0
A = 1

n
A = A1 = A

k+1
A = Ak A k1

13
Propiedades :
Por la propiedad asociativa se cumple que:

Ap Aq = Ap+q
Como el producto de matrices no es conmutativo:

(AB)p 6= Ap B p
slo sera cierta en el caso de que A y B conmutaran.
Si A y B conmutan, tiene sentido la frmula de Newton:
p  
p
X p
(A + B) = Ak B pk
k
k=0

En algunas ocasiones nos valdremos de la frmula de Newton para calcular potencias de una matriz, descom-
ponindola en la suma de dos ms simples (buscando, a ser posible, que una de ellas sea la matriz identidad y as
simplicar los clculos).

14
EL DETERMINANTE

Para una escritura ms cmoda representaremos cada matriz de orden n como una upla de longitud n2 :
(n)
Mn (K) K n K n : A = (aij ) (a1 , . . . , an ), ai = (ai1 , . . . , ain ) K n

Denicin y proposicin
Existe una nica aplicacin, llamada determinante:

det : Mn (K) K
que cumple las siguientes propiedades:
1. det(In ) = 1. Esta propiedad garantiza la unicidad del determinante.
2. Para cualquiera , K , con:

a0i , a00i , a1 , a2 , . . . , ai = a0i + a00i , . . . , an K n


se cumple:
det(a1 , . . . , a0i + a00i , . . . , an ) =

= det(a1 , . . . , a0i , . . . , an ) + det(a1 , . . . , a00i , . . . , an )


Las combinaciones de las son compatibles con el determinante.
Nota: Si una la es nula, el determinante es cero.
1. Si la matriz A tiene dos las iguales, entonces: det(A) = 0.
Cuando el rango no es mximo, el determinante se anula.

Propiedades
Las propiedades del determinante son en realidad reglas de clculo.
1. Si se multiplica una la por un escalar, el determinante queda multiplicado por dicho escalar.

det(a1 , . . . , ai , . . . , an ) = det(a1 , . . . , ai , . . . , an )

Esto se demuestra utilizando la segunda propiedad de la denicin de determinante con = , = 0.


2. Si a una la le sumamos un mltiplo de otra, el determinante no vara.

det(a1 , . . . , ai + aj , . . . , aj , . . . , an ) =

= det(a1 , . . . , ai , . . . , aj , . . . , an ) + det(a1 , . . . , aj , . . . , aj , . . . , an ) =

= det(a1 , . . . , ai , . . . , aj , . . . , an ) + 0

15
3. Si intercambiamos dos las, el determinanate cambia de signo.
Suponemos que queremos cambiar las las ai , aj :

0 = det(a1 , . . . , ai + aj , . . . , ai + aj , . . . , an ) =

= det(a1 , . . . , ai , . . . , ai + aj , . . . , an ) + det(a1 , . . . , aj , . . . , ai + aj , . . . , an ) =

= det(a1 , . . . , ai , . . . , ai , . . . , an ) + det(a1 , . . . , ai , . . . , aj , . . . , an )+

+det(a1 , . . . , aj , . . . , ai , . . . , an ) + det(a1 , . . . , aj , . . . , aj , . . . , an ) =

= 0 + det(a1 , . . . , ai , . . . , aj , . . . , an ) + det(a1 , . . . , aj , . . . , ai , . . . , an ) + 0

Por tanto:

0 = det(a1 , . . . , ai , . . . , aj , . . . , an ) + det(a1 , . . . , aj , . . . , ai , . . . , an )

det(a1 , . . . , ai , . . . , aj , . . . , an ) = det(a1 , . . . , aj , . . . , ai , . . . , an )

Nota: Si una matriz B se obtiene a partir de otra A mediante operaciones elementales por las, entonces det(B)
se obtiene multiplicando det(A) por los factores asociados a las operaciones elementales realizadas.

Propiedad. Escalonamiento
Podemos calcular el determinante de una matriz A de orden n haciendo operaciones elementales para convertir A
en una matriz escalonada reducida R.
Si rg(A) = n R = In det(R) = 1
Si rg(A) < n R tiene alguna la nula det(R) = 0
A B B0 R (
0
det(A) det(B) det(B 0 ) det(R) =
1
donde B 0 se obtiene realizando operaciones elementales con el factor 6= 0 sobre B , entonces det(B 0 ) = det(B).
As, leyendo de derecha a izquierda podemos calcular det(A).
Nota: El determinante de una matriz cuadrada es no nulo si, y slo si, su rango es mximo.

Proposicin
El determinante de una matriz cuadrada existe y es nico.

16
Demostracin :

Unicidad del determinante:

Para n = 1:

det(a) = det(a In ) = a det(In ) = a 1 = a


por lo que la funcin det est bien determinada.

Suponemos n 2, vamos a obtener la frmula denominada Regla de Laplace :


n
X
det(A) = (1)1+j a1j det(A1j )
j=1

donde A1j es la matriz de orden n 1 que se obtiene al suprimir en A la primera la y la columna j -sima.
 
a11 a12
det = a11 a22 a12 a21
a21 a22
La regla de Laplace nos dice como calcular el determinante, luego prueba su unicidad por el mtodo de induccin.
Para empezar, escribimos la matriz dada por las:

A = (a1 , . . . , an )
y la primera de las las como combinacin lineal:
n
X (j)
a1 = a1j ej , ej = (0, . . . , 0, 1 , 0, . . . , 0)
j=1

entonces:
Xn n
X
det(A) = det( a1j ej , a2 , . . . , an ) = a1j det(ej , a2 , . . . , an )
j=1 j=1

as armamos, lo que prueba la regla de Laplace, que se cumple:

det(ej , a2 , . . . , an ) = (1)1+j det(A1j )


Hacemos operaciones elementales en A1j para transformarla en su matriz escalonada reducida, que ser In1 o
una matriz con una la nula.

Existencia del determinante:

Construimos la aplicacin det por induccin sobre el orden n de las matrices.


Para n = 1 :

det(a) = a
cumple las propiedades de la denicin de determinante.

Suponemos construido el determinante de orden n1 1 y denimos el de orden n mediante la regla de Laplace,


entonces vamos a vericar que cumple las tres propiedades de la denicin:
1. Es inmediata ya que al aplicar la regla de Laplace a A = In , el nico coeciente no nulo de la primera la es
el primero, que vale 1, y la matriz correspondiente es A11 = In1 que por induccin tiene determinante 1.

17
2. det(. . . , a0i + a00i , . . .) = det(. . . , a0i , . . .) + det(. . . , a00i , . . .)?
Suponemos primero i = 1, entonces tenemos:
n
X
det(a01 + a001 , a2 , . . . , an ) = (a01j + a001j )(1)1+j det(A1j ) =
j=1

n
X n
X
= a01j (1)1+j det(A1j ) + a001j (1)1+j det(A1j ) =
j=1 j=1

= det(a01 , a2 , . . . , an ) + det(a001 , a2 , . . . , an )

En el caso i = 1 la operacin de combinar las queda vericada.


Si la la es i > 1, la operacin de combinar las se reproduce en todos los determinantes del sumatorio y por
induccin podemos aplicar la propiedad 2 para obtener:
n
X
det(a1 , . . . , a0i + a00i , . . . , an ) = a1j (1)1+j (det(A01j ) + det(A001j )) =
j=1

n
X n
X
= a1j (1)1+j det(A01j ) + a1j (1)1+j det(A001j ) =
j=1 j=1

= det(a1 , . . . , a0i , . . . an ) + det(a1 , . . . , a00i , . . . an )

Por tanto queda vercada la segunda propiedad.


3. El determinante vale 0 si hay dos las iguales?
Para n = 2:
 
a11 a12
det(A) = det = a11 a12 a12 a11 = 0
a11 a12

Suponemos n 3 y que A tiene dos las iguales. Si ninguna de las las iguales es la primera, entonces todas
las matrices A1j de la regla de Laplace tienen una par de las repetidas y por induccin tienen el determinante
nulo, por tanto el sumatorio es nulo; y en consecuencia det(A) = 0.
Ahora bien, suponemos que las las iguales son las dos primeras (es lo mismo que si fuera la primera y otra
la i -sima con i > 2, ya que intercambiando las el determinante vara de signo, pero como ser nulo el signo
no nos importa).
n
X
det(A) = (1)1+j a1j det(A1j )
j=1

aplicamos la regla de Laplace a cada determinante det(A1j ).


La primera la de cada matriz A1j es:
 
(1) (j1) (j) (n1)
a21 , . . . , a2j1 , a2j+1 , . . . , a2n

luego:

det(A1j ) = + (1)k a2k det(Bjk ) +

18
donde:
Bjk es la matriz obtenida al suprimir en A1j la la y la columna donde se encuentra el trmino a2k , esto
es, al suprimir en A las las primera y segunda, y las columnas j -sima y k -sima.
(
1 + k, k<j
k =
1 + (k 1) = k, k>j

As:

j1
X n
X
det(A1j ) = (1)1+k a2k det(Bjk ) + (1)k a2k det(Bjk ) =
k=1 k=j+1

j1
X n
X
= (1)1+k a2k det(Bjk ) (1)1+k a2k det(Bjk )
k=1 k=j+1

Llevando sto al clculo de det(A) obtenemos:

n
X j1
X n
X
det(A) = (1)1+j a1j ( (1)1+k a2k det(Bjk ) (1)1+k a2k det(Bjk )) =
j=1 k=1 k=j+1

X n
X
= (1)j+k a1j a2k det(Bjk ) (1)j+k a1j a2k det(Bjk )
1k<jn 1j<kn

Hacemos un cambio de ndices en la sumacin:


X
= (1)p+q (a1q a2p det(Bqp ) a1p a2q det(Bpq )) =
1p<qn

observamos que por construccin Bqp = Bpq :


X
= (1)p+q (a1q a2p a1p a2q )det(Bpq )
1p<qn

como nuestra matriz A tiene las dos primeras las iguales:

a1q a2p a1p a2q = 0 = det(A) = 0

Regla de Sarrus
Clculo del determinante de orden 3 por la regla de Laplace, su resultado se conoce como Regla de Sarrus.

a11 a12 a13
det a21 a22 a23 =
a31 a32 a33
     
a22 a23 a21 a23 a21 a22
= a11 det a12 det + a13 det =
a32 a33 a31 a33 a31 a32

= a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a22 a31 ) =

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31

Nota: El determinante de una matriz diagonal es el producto de los coecientes de su diagonal principal.

19
Proposicin
El determinante de un producto de matrices cuadradas es el producto de sus determinantes.

Demostracin :

Sea AB el producto de dos matrices cuadradas. El rango del producto es mximo si, y slo si, lo es el de los
factores. As slo nos ocuparemos del caso en que A y B tengan rango mximo, es decir, tengan determinante no
nulo.
Si A tiene rango mximo, mediante operaciones elementales por las, A es equivalente a una matriz escalonada
reducida R con todas las las no nulas, que es por tanto la identidad.
Si aplicamos esas mismas operaciones elementales a AB , obtenemos RB = B .
Invirtiendo las operaciones vemos que las mismas que transforman R en A, sirven para transformar B = RB en
AB .
As, los factores que se aplican para obtener det(A) a partir de det(R) = 1, son los mismos que se aplican para
obtener det(AB) a partir de det(RB) = det(B).
Entonces:

det(AB) = det(A) det(B)

Proposicin
Los determinantes por las y por columnas coinciden.

Demostracin :

detc (A) = detf (A)?

Si A no es invertible, tanto su rango por columnas como por las son menores que su orden, entonces:

detc (A) = 0 = detf (A)


Suponemos que A es invertible. Para calcular el determinante por las de A se hacen las operaciones elementales
por las hasta obtener la matriz identidad, as el detf (A) es el inverso del producto de los factores asociados a esas
operaciones:
A B B0 R = In

detf (A) detf (B) detf (B 0 ) detf (R) = 1
Podemos utilizar esta sucesin de operaciones elementales para calcular el determinante por columnas:

detc (B) detc (B 0 ) = detc (B 0 ) = detc (B)
Empecemos por considerar la matriz I 0 que se obtiene a partir de la identidad I mediante la misma operacin
elemental por las que B 0 a partir de B .
Por la forma en que se comporta el producto respecto a estas operaciones; como B = IB entonces tenemos que
B0 = I 0B.
As tenemos:

detc (B 0 ) = detc (I 0 B) = detc (I 0 ) detc (B)


detc (I 0 ) = ?

Es cierto porque las operaciones elementales por las con operaciones por columnas del mismo tipo, por tanto
son las mismas que para la matriz identidad I .
En conclusin:

detf (A) = detc (A)

20
Nota: Como el determinanate por las coincide con el determinante por columnas, entonces:
det(A) = det(At )

Denicin. Traza
Denimos la traza como la suma de los elementos de la diagonal principal de una matriz cuadrada:
X
tr(A) = aii
i

La traza es lineal, por lo que conserva la suma y el producto por escalares.

Denicin. Determinante de Vandermonde


Sean a1 , . . . , an K , contruimos la matriz:

1 1 1
a1 a2 an
a21 a22 a2n

A=

.. .. ..

. . .


an1
1 an1
2 an1
n

denominamos determinante de Vandermonde :


Y
4(a1 , . . . , an ) = (aj ai )
1i<jn

Demostracin: por induccin.

Para n = 2:
 
1 1
4(a1 , a2 ) = det = a1 a2
a1 a2
Para n = 3:

1 1
1 1 1 1
4(a1 , a2 , a3 ) = det a1 a2
a3 = det 0 a2 a1 a3 a1 =
a21 a22
a32
0 a2 (a2 a1 ) a3 (a3 a1 )
 
1 1
= (a2 a1 )(a3 a1 )det = (a2 a1 )(a3 a1 )(a3 a2 )
a2 a3
Para n:

1 1 1
a1 a2 an
a21 a22 a2n

4(a1 , . . . , an ) = det
=

.. ..
. .


an1
1 an1
2 an1
n

restamos a cada la (excepto a la primera) el producto de a1 por la anterior:



1 1 1

0 a2 a1 an a1

= det
0 a2 (a2 a1 ) an (an a1 ) =

.. ..
. .


0 an2
2 (a2 a1 ) an2
n (a n a1 )

21
desarrollamos el determinante por la primera columna y extraemos de cada columna los factores
(a2 a1 ), . . . , (an a1 ):

1 1 1
a2 a3 an
a22 a23 a2n

= (a2 a1 ) (an a1 )det
=

.. ..
. .


an2
2 an2
3 an2
n

= (a2 a1 ) (an a1 )4(a2 , . . . , an )


Por la hiptesis de induccin:
Y
4(a2 , . . . , an ) = (aj ai )
2i<jn

Entonces:

4(a1 , . . . , an ) = (a2 a1 ) (an a1 )4(a2 , . . . , an ) =

Y Y
= (a2 a1 ) (an a1 ) (aj ai ) = (aj ai )
2i<jn 1i<jn

Nota: El determinante de Vandermonde es no nulo si, y slo si, todos los escalares ai son distintos.

22
APLICACIONES DEL DETERMINANTE

Denicin
Un menor de orden s de una matriz A Mmn (K) es el determinante de una matriz cuadrada de orden s que se
obtiene a partir de A eliminando m s de sus las y n s columnas.

Proposicin
Sea A una matriz no necesariamente cuadrada, y sea D un menor no nulo de A. Entonces el rango de A es el mayor
de los rdenes de los menores no nulos que contienen a D.

Demostracin :

Supongamos que D es un menor de orden s no nulo, cuya matriz denotamos M , por tener determinante no nulo,
el rango de M es mximo, luego sus s las son independientes. Cada una de estas las es parte de alguna la de A
por lo que A tiene al menos s las independientes:

rg(A) s
Si rg(A) > s, podemos aadir a M una la y una columna para obtener otro menor no nulo de orden s + 1. A
tiene que tener alguna la que no dependa de esas s las. Con ella y las s que ya tenemos formamos una submatriz
A0 de A que tiene s + 1 las independientes y tantas columnas como A. Adems, A0 contiene a nuestra submatriz
M.
Si las dems columnas de A0 dependieran de aquellas s, el rg(A) = s y no es el caso, por lo que hay alguna
columna de A0 que no depende de las s en cuestin.
Sea M 0 la submatriz de A0 cuyas columnas son las s columnas independientes de A0 que contienen a las s
columnas de M y a la nueva columna que no depende de ellas. Las s + 1 columnas de M 0 son independientes, M 0
es cuadrada de orden s + 1 con determinante no nulo y M 0 contiene a M , por lo que podemos concluir con que el
rg(A) es el mayor de los rdenes de los menores no nulos.

Matriz adjunta y matriz inversa


Sea A = (aij ) una matriz cuadrada de orden n.

El adjunto de un elemento aij es:

ij = (1)i+j det(Aij )
donde Aij es la matriz que resulta al eliminar la la i -sima y la columna j -sima.

Se cumple que:
n n
(
X X det(A) si k = j
ij aik = (1)i+j aik det(Aij ) =
i=1 i=1
0 si k 6= j
Si k = j , la matriz es A; si k 6= j , la matriz es la matriz A0 que resulta al sustituir la columna j -sima de A por
una copia de la k-sima, y como A0 tiene dos columnas iguales su determinante es 0.

Denimos la Matriz Adjunta de A como:

Adj(A) = (ij )t
Si A es una matriz invertible:
Adj(A)
A1 =
det(A)
Nota: Una matriz A es invertible si, y slo si, det(A) 6= 0.

23
Regla de Cramer
Consideremos un sistema Axt = bt con n incgnitas, y la matriz A = (aij ) de rango n. Entonces:
Adj(A) bt
xt = (A1 A)xt = A1 (Axt ) = A1 bt =
det(A)
Para calcular el valor de la incgnita j -sima:
t
(1j , . . . , nj ) (b1 , . . . .bn ) 1j b1 + + nj bn
xj = =
det(A) det(A)
Para calcular la incgnita j -sima se siguen los pasos siguentes:
1. Se calcula el determinante de la matriz del sistema.
2. Se calcula el determinante de la matriz despus de reemplazar la columna j -sima por la de trminos inde-
pendientes.
3. Se divide el resultado del punto 2 por el del punto 1.
Nota: La regla de Cramer sirve para resolver cualquier sistema compatible.

24
UD 2

Espacios vectoriales
Espacios vectoriales de tipo nito

25
ESPACIOS VECTORIALES

Denicin
Un espacio vectorial sobre K es un conjunto E no vaco cuyos elementos se denominan vectores, dotado de dos
operaciones:
Suma: + : E E E
Producto por escalares: : E E E
que cumplen:
1. Suma
Conmutativa:

u + v = v + u u, v E
Asociativa:

u + (v + w) = (u + v) + w u, v, w E
Existencia de elemento neutro:

0 E / u + 0 = 0 + u = u u E
Existencia de elemento opuesto:

u E u E / u + (u) = 0
2. Producto por escalares:
Asociativa:

(u) = () u u E , K
Existencia de elemento unicidad:

1 K / 1 u = u u E
Distributiva respecto a la suma de escalares:

( + ) u = u + u u E , K
3. Distributiva respecto a la suma de vectores:

(u + v) = u + v u, v E K

Proposicin

Sea E un espacio vectorial sobre K. Sean u, v E y , K


Se cumplen:
1. El elemento neutro 0 es nico
2. = 0 = 0 = 0
3. u = (1) u : unicidad del opuesto
4. Si u = u, u 6= 0 = =
5. Si u = v, 6= 0 = u = v

26
Demostracin:

1. El elemento 0 es nico.
Suponemos que 00 otro elemento neutro. Entonces:
Como 0 + 00 = 00 por ser 0 neutro y 0 + 00 = 0 por ser 00 neutro, entonces tenemos que 0 = 00
2. = 0 = 0 = 0
(=)
Si = 0 tenemos v = u

v = 0 u = (0 + 0) u = 0 u + 0 u = v + v
si restamos v en ambos miembros:

v v = v + v v = 0 = v + 0 = v
Si u = 0 tenemos v = u

v = 0 = (0 + 0) = 0 + 0 = v + v
si sumamos v de la misma manera que antes:

0=v
(=)
Si u = 0 y 6= 0, podemos dividir por :
 
1 1 1
u=1u= u = (u) = 0 = 0

Si u 6= 0:
 
1 1 1
=1= u = (u) = 0 = 0
u u u
3. u = (1) u : unicidad del opuesto

0 = (1 + (1)) u = 1 u + (1) u = u + (1) u


si sumamos u en ambos lados:

0 u = u + (1) u u = u = (1) u
4. Si u = u, u 6= 0 = =

0 = u + (u) = u + (u) = ( ) u
como u 6= 0 = = 0 = =
5. Si u = v, 6= 0 = u = v

0 = u + (u) = v + (u) = (v u)
como 6= 0 = v u = 0 = u = v

27
Denicin
El producto cartesiano de dos espacios vectoriales dene una estructura de espacio vectorial sobre K:

Kn = { u = (x1 , . . . , xn ) : xi K i = 1, . . . , n }

Denicin. Subespacio vectorial


Sea E un espacio vectorial.
Las operaciones de E restringidas a V E denen un nuevo espacio vectorial, en el que se cumple:

u + v V , K u, v V

Denicin
Un vector u E depende linealmente de otros vectores u1 , . . . , ur E si

1 , . . . , r K / u = 1 u1 + + r ur
Diremos que los vectores u1 , . . . , ur E son linealmente independientes si ninguno depende de los dems.

Proposicin
Los vectores u1 , . . . , ur E son linealmente independientes si, y slo si, de cualquier combinacin lineal

1 u1 + + r ur = 0
obtenemos la solucin trivial: 1 = = r = 0

28
ESPACIOS VECTORIALES DE TIPO FINITO

Denicin
Un espacio vectorial E se denomina de tipo nito si:

u1 , . . . , uq E / u E, u = 1 u1 + + q uq
Todo vector es combinacin lineal de una coleccin nita de vectores.

Diremos que E = L [u1 , . . . , uq ] est generado por los uj , es decir, u1 , . . . , uq forman un sistema de generadores.

Kn es un espacio de tipo nito:


n  
X (j)
(x1 , . . . , xn ) = xi ei , ei = 0, . . . , 0, 1 , 0, . . . , 0
i=1

de donde tenemos que K = L [e1 , . . . , en ]


n

Sistemas generadores de Kn
Sabemos que Kn es de tipo nito, pero como reconocer una coleccin de vectores que genera el espacio:

Kn = L [u1 , . . . , uq ]
Supongamos uj = a1j , . . . , anj Kn 1 j q


Veamos si u = (b1 , . . . , bn ) es combinacin lineal de los vectores uj :

u = 1 u1 + + q uq
Si calculamos componente a componente:

b = 1 a11 + + q a1q
1

..

.

b = a + + a
n 1 n1 q nq

de donde tenemos que u es combinacin lineal de uj si, y slo si, el sistema tiene solucin.

Kn = L [u1 , . . . , uq ] rg(A) = rg(A|b)


Como A tiene n las podemos concluir:
1. Los uj generan Kn rg(A) = n
2. El nmero mximo de generadores de Kn es n
3. n generadores d eKn son siempre independientes, y n vectores independientes necesariamente generan Kn
En conclusin, n vectores son independientes si, y slo si, el rango de la matriz correspondiente es n, si, y slo si,
los vectores generan Kn .

Denicin
Denominamos base de un espacio vectorial a un sistema ordenado de generadores formado por vectores independi-
entes.

Los vectores e1 , . . . , en son una base en Kn denominada base estndar En o E .

29
Denicin
Supongamos que B = {u1 , . . . , un } es una base de E .
Denominamos coordenadas de u respecto a B a los coecientes (x1 , . . . , xn ) tales que:

u = x1 u1 + + xn un , x1 , . . . , xn K

Proposicin
Todas las bases de un espacio vectorial E de tipo nito tienen el mismo nmero de vectores.
Denominaremos a este nmero dimensin de E .
Nota:
dim(E) = 1 E es una recta
dim(E) = 2 E es un plano

Matriz de cambio de base

Sea E un espacio vectorial de tipo nito. Sean B = {u1 , . . . , un } , B0 = {v1 , . . . , vn } dos bases de E .
Dado un vector u E denotamos sus coordenadas:

(x1 , . . . , xn ) respecto a B

(y1 , . . . , yn ) respecto a B 0
Entonces:
1. Existe una nica matriz C tal que

u E = y t = Cxt

C es nica ?
(j)
Veamos que las coordenadas respecto a la base B del vector uj son ej = (0, . . . , 0, 1 , 0, . . . , 0); por tanto sus
coordenadas respecto a la base B0 se obtienen calculando el producto:

C etj

que es la columna j-sima de C , en consecuencia tenemos que C est completamente determinada por la
condicin deseada.
2. Si B = B0 entonces C = In
Si B00 es otra base tal que C 0 = C (B0 , B00 ) entonces C 0 C = C (B, B00 ).
Si denotamos z las coordenadas respecto a B00 :

z t = C 0 y t = C 0 Cxt = (C 0 C) xt = C 0 C = C (B, B 00 )


3. Si B00 = B = C 0 C = In , es decir, la matriz de cambio de base es invertible y su inversa es la matriz de


cambio de base en orden contrario.

Proposicin. Teorema de prolongacin


Sea E = L [u1 , . . . , uq ] un espacio vectorial de tipo nito con dim(E) = n.
Si los vectores v1 , . . . , vr son independientes, entonces ui1 , . . . , uinr de forma que:

v1 , . . . , vr , ui1 , . . . , uinr son una base

30
Proposicin
Todo subespacio V de un espacio nito E es de tipo nito.
Adems,

dim(V ) dim(E)
Denominamos codimensin a la diferencia de dimensiones:

codim(V ) = dim(E) dim(V )


Un subespacio de codimensin 1 se denomina hiperplano.

Obtencin de las ecuaciones implcitas y parmetricas


Sea B = {u1 , u2 , u3 , u4 , u5 } una base, consideremos los vectores:
v1 = u1 + u3 + 2u4
v2 = 2u1 + u2 + 3u3 + 4u4
v3 = u1 u2 + 2u4

1 2 1
0 1 1
Extraemos la matriz A = y estudiamos su rango:
1 3 0
2 4 2

1 2 1 1 2 1 1 2 1
0 1 1 0 1 1 0 1 1
1 3 0 f3 f1 = 0 1 1 f3 + f2 = 0 0 0 = rg(A) = 2

2 4 2 f4 2f1 0 0 0 0 0 0
Lasdos primerascolumnas son independientes, de manera que:
1 2 x1
0 1 x2 1 2 x1 1 2 x1
rg 0 1 x2 = 0 y det 0 1 x2 = 0
1 3 x3 = 2 = det

1 3 x3 2 4 x4
2 4 x4
Si
( desarrollamos los determinantes:( (
x3 + 2x2 x1 3x2 = 0 x1 x2 + x3 = 0 x1 + x2 x3 = 0
= =
x4 + 4x2 2x1 4x2 = 0 2x1 + x4 = 0 2x1 x4 = 0
seran las ecuaciones implcitas

Para las paramtricas:


( (
x4 = x1 + x2 = 0
Denominamos: = = 2x1 = = x1 =
2
x3 = 2x1 = 0

2 + x2 = 0 = x2 = 2
Por
tanto, las ecuaciones paramtricas son:

x1 = 2


x =
2 2
x3 =


x4 =

y observando los coecientes de los parmetros, tenemos que:


1 1
forman una base.

,
2 2 , 0, 1 , (0, 1, 1, 0)

31
UD 3

Operaciones con subespacios.


Aplicaciones lineales.

32
OPERACIONES CON SUBESPACIOS

Intersecciones de subespacios
Sea {Vi }i una coleccin arbitraria de subespacios de E . Entonces su interseccin
\
V = Vi
i

es un subespacio vectorial de E .
Nota: Para calcular la interseccin de dos subespacios formamos un sistema con las ecuaciones implcitas de
los subespacios.

Generacin de subespacios
Sea X E . Consideremos la coleccin {Vi } de todos los subespacios que contienen a X . Entonces
\
V = Vi
i

es el menor subespacio que contiene a X y coincide con L [X].

Suma de subespacios
Sean V1 , . . . , Vp subespacios vectoriales de E . El subespaico generado por su unin, X = V1 Vp , se denomina
suma y se denota:
p
X
L [X] = V1 + + Vp = Vp
i=1

Cociente mdulo subespacio


Sea L un subespacio vectorial de E . Denimos en E la relacin de equivalencia:

vRu v w = u L
La clase de equivalencia de un vector es:

[v] = v + L = { v + u : u L }
Denominamos cociente mdulo L al espacio vectorial E/L sobre K.

Proposicin
Cualquier subespacio de E es interseccin de hiperplanos.
El nmero mnimo necesario es la codimensin del subespacio.

33
Proposicin. Frmula de Grassmann
Sean V, W dos subespacios de E . Entonces:

dim(V + W ) = dim(V ) + dim(W ) dim(V W )

Demostracin:
Suponemos que V, W 6= {0} y que V W 6= {0}, ya que en este caso la frmula se cumple trivialmente.
Sea {u1 , . . . , ud } una base de V W . Si le aadimos los vectores v1 , . . . , vp V obtenemos una base de V ; y
aadiendo los vectores w1 , . . . , wq W obtenemos una base de W . As tenemos que:
dim(V W ) = d
dim(V ) = d + p
dim(W ) = d + q
Por tanto debemos probar que: dim(V + W ) = d + p + q
Veamos si {u1 , . . . , ud , v1 , . . . , vp , w1 , . . . , wq } es una base de V + W .
Est claro que esta coleccin de vectores genera todo el espacio V + W como consecuencia de que la suma
consiste en la suma de vectores. As slo nos queda comprobar que sean independientes:
X X X
j uj + k vk + l wl = 0
j k l
X X X
j uj + k vk = l wl V W
j k l
X X X
j uj + k vk = j u j
j k j

Los uj , vk son independientes, por tanto k = 0


X X
j uj + l wl = 0
j l

Los uj , wl son independientes, por tanto j = l = 0.


As pues los vectores son linealmente independientes y generan el espacio V + W , por lo que tenemos que son
una base y:

dim(V + W ) = dim(V ) + dim(W ) dim(V W )

Proposicin
Sea L un subespacio de E . Entonces E/L es de tipo nito y se cumple que:

dim(E/L) = dim(E) dim(L) = codim(L)

34
APLICACIONES LINEALES

Denicin
Sean E, F dos espacios vectoriales sobre un mismo cuerpo K. Una aplicacin f : E F se denomina lineal cuando
conserva las combinaciones lineales:

f (1 u1 + + r ur ) = 1 f (u1 ) + + r f (ur ) , i K, ui E

Proposicin
Sea f : E F una aplicacin lineal. Se cumple que:
1. f (0) = 0
2. f (u) = f (u) u E
Ejemplo: Son aplicaciones lineales:
Aplicacin identidad: IdE : E E
= L : E E/L
Proyeccin:
v 7 [v]

h: EE
Homotecia vectorial de razn :
v 7 v

Denicin
El conjunto de todas las aplicaciones lineales de un espacio vectorial E en otro F se denota por:

L (E, F )

Nota: Las aplicaciones lineales respetan los subespacios vectoriales.


Supongamos una aplicacin lineal f : K3 K3 que cumple:
f (2, 1, 1) = (3, 0, 1)
f (1, 0, 1) = (1, 1, 1)
f (0, 0, 1) = (1, 2, 0)
Los tres vectores generan todo el subespacio, por tanto cualquier vector es combinacin lineal de ellos:

(x, y, z) = (2, 1, 1) + (1, 0, 1) + (0, 0, 1)



x = 2 +
= y

y= = = x 2 = x 2y

z =+ = z + = z y + x 2y = x 3y + z

Por tanto:
f (x, y, z) = (3, 0, 1) + (1, 1, 1) + (1, 2, 0) =
= y (3, 0, 1) + (x 2y) (1, 1, 1) + (x 3y + z) (1, 2, 0) =
= (3y + x 2y x + 3y z, x 2y + 2x 6y + 2z, y x + 2y) =
= (4y z, 3x 8y + 2z, x + 3y)

35
Proposicin
Sea f : E F una aplicaicn lineal. Sean V E, W F subespacios vectoriales.
Entonces,
1. La imagen f (V ) es un subespacio vectorial de F :

f (V ) = { f (v) F : v V }

2. La imagen inversa f 1 (W ) es un subespacio vectorial de E :

f 1 (W ) = { u E : f (u) W }

Denicin. Imagen y ncleo


Sea f : E F una aplicacin lineal.
Diremos que su imagen es:

im(f ) = f (E) = { f (u) F : u E }


y su ncleo:

ker(f ) = f 1 (0) = { u E : f (u) = 0 }

Proposicin
Sea f : E F una aplicacin lineal.
Las siguientes armaciones son equivalentes:
(i) f conserva la independencia lineal: si u1 , . . . , up son independientes en E , entonces sus imgenes f (u1 ), . . . , f (up )
son independientes en F .
(ii) El ncleo de f es trivial: ker(f ) = {0}
(iii) f es inyectiva

Demostracin:

(i) = (ii)
Para un slo vector, ser independiente es ser no nulo.
(ii) = (iii)
Si f (u) = f (v) = f (u v) = f (u) f (v) = 0
de donde u v ker(f ) = u v = 0 = u = v y por tanto f es inyectiva.
(iii) = (i)
Sean u1 , . . . , up E vectores independientes.
Sea la combinacin lineal: 1 f (u1 ) + + p f (up ) = 0
Por linealidad:

1 f (u1 ) + + p f (up ) = f (1 u1 + + p up )

Como f (0) = 0 y f es inyectiva:

1 u1 + + p up = 0

Los uj son independientes, luego todos los j = 0, por tanto las imgenes son independientes.

36
Proposicin
Sea f : E F una aplicacin lineal. Si f es biyectiva, entonces su inversa f 1 es tambin lineal.

En este caso diremos que f es un isomorsmo lineal y que E y F son isomorfos.


Nota: La composicin de aplicaciones lineales es lineal.

Proposicin
Sea f : E F una aplicacin lineal. Consideremos la proyeccin : E E/ker(f ) y la inclusin j : im(f ) , F .
Entonces,

f : E/ker(f ) im(f ) : [v] 7 f (v)


es la nica aplicacin lineal tal que:

f =jf
f tiene la factorizacin cannica:
f f
E F v f (v)
j : j
f f
E/ker(f ) im(f ) [v] f ([v]) = f (v)
donde es suprayectiva, f es biyectiva y j es inyectiva.

De ah obtenemos el primer teorema de isomorfa:

E/ker(f ) e im(f ) son isomorfos

Denicin. Proyecciones y simetras


Sea E un espacio vectorial. Sean V, W dos subespacios suplementarios: E = V W .
Cada vector u E se escribe de una nica manera como suma

u = v + w, v V, w W
De esta manera podemos denir las aplicaciones:
(i) La proyeccin p : E E : u 7 v , denominada de base V y direccin W .
(ii) La simetra s : E E : u 7 v w, denominada de base V y direccin W .

Si p : E E es una aplicacin lineal, entonces:

im(p) = V ker(p) = W
Si s : E E es una aplicacin lineal, entonces:

V = ker (IdE s) W = ker (IdE + s)


de donde:

im(p) = ker (IdE s) ker(p) = ker (IdE + s)

37
Proposicin
Sea f : E F una aplicacin lineal, donde E, F son de tipo nito.
Entonces,

dim (E) = dim (ker (f )) + dim (im (f ))

Propiedades
1. Si f es inyectiva = dim (E) dim (F )
2. Si f es suprayectiva = dim (E) dim (F )
3. Si dim (E) = dim (F ) f es biyectiva

Proposicin
Sea E un espacio vectorial de tipo nito. Consideramos una base de E, B = {u1 , . . . , un }.
Sea F un espacio vectorial no necesariamente nito tal que v1 , . . . , vn F .
Entonces existe una nica aplicacin lineal f : E F tal que:

f (u1 ) = v1 , . . . .f (un ) = vn

Demostracin:
Si existe es nica est claro ya que:

E = L [u1 , . . . , un ]
Construyamos f :
Cualquier vector u E es de la forma:

u = x1 u1 + + xn un
entonces denimos:

f (u) = x1 f (u1 ) + + xn f (un ) = x1 v1 + + xn vn


sto dene bien la aplicacin f : E F ya que los xj estn detrerminados por u.
Veamos si es aplicacin lineal:
Sean u, w E con coordenadas (xj ) , (yj ) respectivamente, y con , K. Las coordenadas de u + w son
(xj + yj ), entonces:
X X X
f (u + w) = (xj + yj ) vj = xj vj + yj vj = f (u) + f (w)
j j j

Por tanto, f es una aplicacin lineal.

Denicin. Ecuaciones y matriz de una aplicacin lineal


Sea f : E F una aplicacin lineal entre espacios vectoriales de dimensin nita.
Sean las bases BE = {u1 , . . . , un } , BF = {v1 , . . . , vm }.
Ddado un vector u E denotamos sus coordenadas por (x1 , . . . , xn ) respecto de BE y las coordenadas de f (u)
por (y1 , . . . , ym ) respecto de BF .
Entonces existe una nica matriz M tal que u E :

y t = M xt
M recibe el nombre de matriz def respecto a las bases BE , BF y se denota por:

M = Mf (BE , BF )
Denominamos ecuaciones de f respecto a las bases dadas, a las igualdades:

38
n
X
yi = aij xj
j=1

Si variamos las bases:


0
Mf (BE , BF0 ) = C (BF , BF0 ) Mf (BE , BF ) C (BE
0
, BE )
Sean las aplicaciones lineales f : E F, g : F G, y las bases BE , BF , BG . La matriz de la composicin es:

Mgf (BE , BG ) = Mg (BF , BG ) Mf (BE , BF )

Ejemplo: f : K3 K3

f (2, 1, 1) = (3, 0, 1)

f (1, 0, 1) = (1, 1, 1)

f (0, 0, 1) = (1, 2, 0)

Los vectores {(2, 1, 1) , (1, 0, 1) , (0, 0, 1)} forman una base B:



3 1 1
Mf (B, E) = 0 1 2
1 1 0
Para hallar las ecuaciones de f respecto a la base estndar:

Mf (E, E) = C (E, E) Mf (B, E) C (E, B)


1
2 1 0
donde C (E, B) = C (B, E)1 = 1 0 0
1 1 1
Por tanto:
1
3 1 1 2 1 0
1
Mf (E, E) = Mf (B, E) C (E, B) = Mf (B, E) C (B, E) = 0 1 2 1 0 0 =
1 1 0 1 1 1
1
2 1 0 0 1 0 0 1 0
1
1 0 0 = 1 1 2 0 = 1 2 0
1 1 1 1 3 1 1 3 1

3 1 1 0 1 0 0 4 1
= 0 1 2 1 2 0 = 3 8 2
1 1 0 1 3 1 1 3 0
de donde las ecuaciones de f respecto a la base estndar son:
x0

0 4 1 x
y0 = 3 8 2 y
z0 1 3 0 z

39
Rango de una aplicacin lineal
Sea f : E F una aplicacin lineal entre espacios de tipo nito.
Sean las bases BE , BF cuyos vectores tienen de coordenadas x, y respectivamente.
Consideremos la matriz M = Mf (BE , BF )
Sabemos que la imagen est generada por las imgenes de los vectores de BE , como las columnas de M son las
coordenadas de esas imgenes respecto a BF :

rg (f ) = rg (M ) = dim (im (f ))

rg (M ) = codim (ker (f )) = dim (E) dim (ker (f ))


Segn el rango podemos saber que tipo de aplicacin lineal es:
(i) f es inyectiva rg (f ) = dim (E)
(ii) f es suprayectiva rg (f ) = dim (F )
(iii) f es biyectiva rg (f ) = dim (E) = dim (F )

40

Potrebbero piacerti anche