Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
15 de noviembre de 2012
UD 1
Sistemas de ecuaciones.
El mtodo de Gauss-Jordan.
Teorema de Rouch- Frobenius.
El determinante.
Aplicaciones del determinante.
1
SISTEMAS DE ECUACIONES LINEALES.
EL MTODO DE GAUSS-JORDAN
Denicin
Una ecuacin lineal es una expresin de la forma:
a1 x1 + a2 x2 + .................. + an xn = b
a1 , a2 , ......, an , b K = R o C
a1 1 + a2 2 + ........ + an n = b
entonces la ecuacin se denomina compatible.
Una ecuacin del tipo 0x1 + 0x2 + + 0xn = b 0 = b se denomina:
Ecuacin trivial si b = 0
Ecuacin incompatible si b 6= 0
Denicin
Un sistema lineal es una lista nita de m ecuaciones con n incgnitas de la forma:
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
..
.
am1 x1 + am2 x2 + . . . + amn xn = bm
donde cada la es una ecuacin lineal diferente, donde tenemos n incgnitas (x1 , x2 , . . . , xn ) en todas la ecua-
ciones.
Otro
Pn tipo de notacin sera:
j=1 aij xj = bi (i = 1, . . . , m) en donde las incgnitas son xj , los coecientes aij R y los trminos indepen-
dientes bi R.
Denicin
sistema lineal se denomina homogneo si todos sus trminos independientes son nulos:
Un
a11 x1 + a12 x2 + . . . + a1n xn = 0
a21 x1 + a22 x2 + . . . + a2n xn = 0
Pn
.. j=1 aij xj = 0 (i = 1, . . . , m)
.
am1 x1 + am2 x2 + . . . + amn xn = 0
2
Denicin
Diremos que un sistema lineal es:
Compatible : si admite alguna solucin del sistema.
Determinado : si existe una nica solucin.
Indeterminado : si existen innitas soluciones.
xj = 0 j = 1, . . . , n
Denicin
Dos sistemas de ecuaciones lineales son equivalentes si toda solucin de uno lo es del otro.
Nuestra estrategia para resolver un sistema lineal consistir en obtener sucesivamente sistemas equivalentes cada
vez ms sencillos.
Para obtener sistemas de ecuaciones lineales equivalentes podemos realizar las siguientes operaciones:
1. Intercambiar dos ecuaciones
2. Multiplicar una ecuacin por un escalar no nulo
3. Aadir a una ecuacin un mltiplo no nulo de otra
Si sabemos que una ecuacin dada de nuestro sistema es combinacin de otras, nos encontramos ante una ecuacin
superua que podemos eliminar, simplicando as el sistema.
Nota: Las operaciones elementales conservan la independencia en las ecuaciones.
Denicin
Un sistema lineal se denomina escalonado reducido cuando la primera incgnita de cada ecuacin tiene coeciente
1 y no aparece en el resto de ecuaciones:
x1 + a12 x2 + . . . + a1n xn = b1
x2 + . . . + a2n xn = b2
..
.
xn = bm
Mediante este mtodo se transforma cualquier sistema de ecuaciones en un sistema escalonado reducido, apli-
cando sucesivamente operaciones elementales.
3
Algoritmo de Gauss-Jordan
Paso 0: hacemos k = 1
Paso 1: examinamos las ecuaciones:
Si hay alguna incompatible, hemos terminado: el sistema es incompatible.
Si hay ecuaciones triviales se suprimen.
Nota:
Las incgnitas de un sistema escalonado reducido se denominan:
principales: la primera variable de cada ecuacin
secundarias o parmetros: el resto de variables
4
DISCUSIN Y RESOLUCIN DE UN SISTEMA ESCALONADO REDUCIDO
Sea un sistema escalonado reducido con las incgnitas principales x1 , . . . , xr y con las incgnitas secundarias
xr+1 , ..., xn del modo:
x1 a1,r+1 xr+1 + . . . + a1n xn = b1
x2
a2,r+1 xr+1 + . . . + a2n xn = b2
.. ..
. .
xr + ar,r+1 xr+1 + . . . + arn xn = br
Para resolver este tipo de sistemas basta con despejar las incgnitas principales:
x1 = b1 a1,r+1 xr+1 . . . a1n xn
x2 = b2 a2,r+1 xr+1 . . . a2n xn
..
.
xr = br ar,r+1 xr+1 . . . arn xn
De este modo, denominamos j = xj j = r + 1, ..., n para obtener las denominadas ecuaciones paramtricas:
x1 = b1 a1,r+1 r+1 . . . a1n
x2 = b2 a2,r+1 r+1 . . . a2n n
.
..
xr = br ar,r+1 r+1 . . . arn n
xr+1 = r+1
.
..
xn = n
Una vez tenemos los denominados parmetros r+1 , ..., r K , entonces si:
r = n: el sistema no tiene incgnitas secundarias, por tanto es SCD con solucin nica.
r < n: el sistema tiene al menos una incgnita secundaria, por tanto es SCI con una solucin diferente para
cada valor de (r+1 , ..., n ) K nr .
Proposicin
Dos sistemas escalonados reducidos compatibles equivalentes son idnticos.
De esto se deduce que:
1. Un sistema compatible es equivalente a un nico sistema reducido escalonado.
2. Dos sistemas compatibles equivalentes se pueden transformar uno en otro mediante operaciones elementales.
Demostracin :
Un sistema y su homogneo tienen las mismas incgnitas: x1 , ..., xn
tienen las mismas incgnitas principales?
Suponemos que no:
x1 , ..., xi1 son las principales en los dos sistemas
xi es principal slo en uno de los sistemas
Si hacemos xi+1 = ... = xn = 0 obtenemos otros dos sistemas equivalentes con las incgnitas x1 , ..., xi pero:
el sistema con las incgnitas principales x1 , ..., xi no tiene incgnitas secundarias, por lo que es un SCD
el sistema con las incgnitas principales x1 , ..., xi1 tiene una incgnita secundaria xi , por lo que es un SCI
Esto es una contradiccin, entonces los dos sistemas deben tener las mismas incgnitas principales.
5
tienen los mismos trminos independientes?
Hacemos nulas las variables secundarias xr+1 , ..., xn = 0 , entonces:
x1 = b1 , ..., xr = br
TEOREMA DE ROUCH-FROBENIUS
MATRICES
Denicin
Una matriz m n es una tabla de nmeros del cuerpo K formada por m las y n columas, tal que:
a11 a12 a1n
a21 a22 a2n
A= . .. .. = (aij ) 1 i m, 1 j m, aij K
.. . .
am1 am2 amn
Denominamos coeciente de una matriz A al elemento aij situado en la la i y la columna j.
Tipos de matrices:
Si m = n la matriz A es una matriz cuadrada.
Si m = n, aij = 0 i 6= j, aij = 1 i = j , A es la matriz identidad de orden n y la denotaremos por In .
Para denir
(
la matriz identidad se utiliza la denominada delta de Kronecker:
1 para i = j
ij = , In = (ij )
0 para i 6= j
6
Denicin. Matrices equivalentes
Diremos que dos matrices A y B son equivalentes por las si podemos transformar una en otra mediante operaciones
elementales.
MATRIZ ESCALONADA
Demostracin :
Nos basamos en un algoritmo similar al de Gauss-Jordan para la demostracin.
1. Se hace k = 1
2. Si todas las las a partir de la k -sima inclusive son nulas, hemos terminado.
3. Si no, buscamos un coeciente no nulo aik jk con jk mnimo.
4. Se divide la la ik -sima por su primer coeciente no nulo, aik jk , y se intercambia con la k -sima la.
5. A cada la distinta de la nueva k -sima le restamos sta multiplicada por el coeciente jk -simo de aqulla.
6. Se hace k=k+1 y volvemos al paso 1.
Ejemplo:
1 2 1
Sea la matriz A = 3 7 5
2 6 8
Tenemos
a11 = 16= 0
1 2 1 1 2 1 1 2 1 1 2 1 f1 2f2
3 7 5 f2 3f1 0 1 2 a22 = 1 6= 0 0 1 2 f2 f3 0 1 0
2 6 8 f3 2f1 0 2 6 f3 2f2 0 0 2 f3 : 2 0 0 1
1 0 1 f1 f3 1 0 0
0 1 0 0 1 0
0 0 1 0 0 1
7
Proposicin
Dos matrices A1 y A2 Mmn (K) son equivalentes por las si, y solo si, los sistemas homogneos A1 xt = 0 y
A2 xt = 0 tienen las mismas soluciones.
Demostracin:
(=)
Si A1 y A2 son equivalentes por las, las operaciones elementales que transforman A1 en A2 se traducen en op-
eraciones elementales que transforman el sistema A1 xt = 0 en el sistema A2 xt = 0 y si los sistemas A1 xt = 0 y
A2 xt = 0 son equivalentes entonces tienen las mismas soluciones.
(=)
A1 xt = 0 y A2 xt = 0 tienen las mismas soluciones = A1 xt = 0 y A2 xt = 0 son equivalentes =A1 xt = 0 se
transforma en A2 xt = 0 por medio de operaciones elementales =A1 se transforma en A2 por medio de operaciones
elementales.
Proposicin
Si dos matrices escalonadas reducidas R1 , R2 Mmn (K) son equivalentes por las, entonces son iguales.
Demostracin:
Por la proposicin anterior tenemos que:
R1 y R2 son equivalentes por las R1 xt = 0 y R2 xt = 0 tienen las mismas soluciones.
Como los sistemas escalonados reducidos R1 xt = 0 y R2 xt = 0 tienen las mismas soluciones, entonces los dos
sistemas son iguales = R1 = R2
Corolario
Una matriz es equivalente por las a una nica matriz escalonada reducida.
Denicin. Rango
Denominamos rango por las de una matriz A, rg(A), al nmero de las no nulas de la nica matriz escalonada
reducida equivalente por las a A, es decir, al mximo nmero de las independientes de A.
Proposicin
Sea A Mmn (K), entonces:
1. rg(A) m, rg(A) n
2. rg(A) es mximo si rg(A) = r, r = min{m, n}
Demostracin :
Suponemos que A tiene r las independientes.
Denotamos A' a la matriz resultante de hacer cero las restantes s las que dependen de las anteriores r las:
(
Axt = 0
son equivalentes = A, A0 son equivalentes por las = rg(A) = rg(A0 ) = r que por el escalon-
A0 x t = 0
amiento de la matriz, el nmero de las no nulas no puede exceder al nmero de columnas ni de las.
Proposicin
Si varias las son independientes y les aadimos una que no depende de ellas, obtenemos de nuevo las independi-
entes.
En particular, dada una la a no nula, entonces:
a b
rg = 1 + rg(A)
0 A
8
Demostracin :
Suponemos que las las a1 , a2 , . . . , ar son independientes y otra la c no depende de ellas, para que esto ocurra, las
las c, a1 , a2 , ..., ar deben ser independientes, en caso contrario la la c dependera de las anteriores, cosa que nos
llevara a una contradiccin.
.
a
m1 x1 + + amn xn = bm
cuya escritura matricial es:
Axt = bt
con A = (aij ) la matriz de coecientes de las incgnitas del sistema.
Denimos la matriz ampliada como:
a11 a1n b1
.. .. .. = (A|bt )
A . . .
e=
am1 amn bm
Teorema de Rouch-Frobenius
Un sistema lineal Axt = bt con n incgnitas es compatible si, y slo si, rg(A) = rg(A)
e.
En tal caso, el sistema compatible determinado si, y slo si, rg(A) = rg(A)
e = n.
Demostracin :
Aplicando el algoritmo de Gauss-Jordan al sistema, a la matriz A y a su ampliada Ae, obtenemos la matriz escalonada
reducida R y Re que slo dieren en la ltima columna, entonces:
rg(R) = rg(R)
e = rg(A) = rg(A)
e
Un sistema es compatible determinado si, y slo si, todas sus variables son principales, es decir, si rg(A) =
rg(R) = n.
Proposicin
El rango por las de una matriz coincide con su rango por columnas, es decir, el mximo nmero de las indepen-
dientes es igual al mximo nmero de columnas independientes.
Denicin
La traspuesta de una matriz A = (aij ) es la matriz At = (bij ) denida por bij = aji . Las las de la matriz traspuesta
son las columnas de la matriz dada.
Nota: rg(A) = rg(At )
9
OPERACIONES CON MATRICES
Una forma de representar matrices es por cajas, matrices menores que forman una matriz mayor:
A B
C D
donde el nmero de las de A y B coincide, como tambin coinciden el nmero de las de C y D, el nmero de
columnas de A y C , y el nmero de columnas de B y D.
Operaciones lineales
Suma
La suma de dos matrices A = (aij ), B = (bij ) Mmn (K) es la matriz suma:
(A + B)t = At + B t
A = (aij )
Propiedades:
Distributiva del producto respecto a la suma:
(A + B) = A + B
( + )A = A + A
Asociativa: ()A = (A)
El producto por el escalar = 1 no altera la matriz.
(A)t = At
Proposicin
Sean A, B Mmn (K) se cumple que:
10
Demostracin :
rg(A + B) rg(A) + rg(B)?
A+B A+B A
rg(A + B) = rg rg = rg rg(A) + rg(B)
0 B B
|rg(A) rg(B)| rg(A + B)? rg(A) rg(A + B) + rg(B)?
Producto de matrices
El producto de dos matrices A = (aij ) Mmn (K), B = (bkj ) Mnp (K) es la matriz:
Im A = A = A In A Mmn (K)
t t t
(A B) = B A
Nota: El producto de matrices no es conmutativo.
Proposicin.
Combinaciones de las y columnas en el producto de matrices
Sea el producto de matrices C = AB se cumple:
Una combinacin de las (respectivamente columnas) en C se obtiene haciendo la misma combinacin en A y
despus multiplicando por B (respectivamente en B y despus multiplicando por A).
Nota: Lo mismo vale para las operaciones elementales incluido el intercambio de las o columnas.
Demostracin :
La la i -sima de C se obtiene de multiplicar la la i -sima de A por las columnas de B , de ah que cualquier
intercambio de las en A se produce igual en C .
Veamos ahora las combinaciones de las:
Sean , K , elegimos los ndices i, j . Sea A0 la matriz que se obtiene al cambiar la la i -sima ai de A por la
combinacin ai + aj y C 0 la que resulta de hacer lo mismo en la matriz C .
C 0 y D = A0 B son iguales? son iguales las las i-simas de ambas matrices
X X X X
dil = a0ik bkl = (aik + ajk )bkl = aik bkl + ajk bkl =
k k k k
11
Proposicin
Sean las matrices A Mmn (K) y B Mnp (K) se cumple que:
Demostracin :
Sea C = AB Mmp (K). Si la la i -sima de A depende de sus anteriores, lo mismo le pasa a la matriz C y como
el rango es el mximo de las independientes:
Matrices invertibles
La multiplicacin de matrices es una operacin bien denida en Mn (K) por lo que pueden existir matrices
inversas.
Denicin
Una matriz cuadrada A de orden n se llama invertible o regular si existe otra matriz C Mn (K) tal que:
AC = CA = In
La matriz C es nica y se denomina inversa de A:
C = A1
AC = CA = In
AC 0 = C 0 A = In
Proposicin
Una matriz cuadrada es invertible si, y slo si, tiene rango mximo.
12
Proposicin
El producto de dos matrices es invertible si, y slo si, son invertibles ambas matrices; ya que el rango del producto
es mximo si, y slo si, lo es el de cada factor.
Demostracin :
(=)
Si AB es invertible entonces:
C / C(AB) = In = (AB)C
Por la propiedad asociativa:
(=)
Si A, B son invertibles entonces B 1 A1 es la inversa de AB
Nota: El conjunto de las matrices invertibles de orden n se denota GL(n, K) o GL(n) denominado Grupo lineal
(es un grupo con la multiplicain de matrices).
Propiedad
Si A es una matriz cuadrada invertible de orden m y B es una matriz m n, entonces:
rg(AB) = rg(B)
Demostracin :
Sabemos que rg(AB) rg(B)
Por otro lado:
Clculo de la inversa
La matriz inversa se obtiene en realidad resolviendo sistemas lineales.
Supongamos que A es una matriz cuadrada de orden n, consideremos los sistemas:
(j)
Axt = (1, 0, . . . , 0)t , . . . , Axt = (0, . . . , 1 , . . . , 0)t , . . . , Axt = (0, . . . , 0, 1)t
cuyas soluciones, si existen, son las columnas de A1 .
Podemos resolverlo aplicando operaciones elementales a la matriz (A|In ) y obtendremos una matriz escalonada
reducida de la forma (In |C) cuando A sea invertible, siendo C = A1 .
Potenciacin
Las potencias de una matriz cuadrada A Mn (K) se denen como:
0
A = 1
n
A = A1 = A
k+1
A = Ak A k1
13
Propiedades :
Por la propiedad asociativa se cumple que:
Ap Aq = Ap+q
Como el producto de matrices no es conmutativo:
(AB)p 6= Ap B p
slo sera cierta en el caso de que A y B conmutaran.
Si A y B conmutan, tiene sentido la frmula de Newton:
p
p
X p
(A + B) = Ak B pk
k
k=0
En algunas ocasiones nos valdremos de la frmula de Newton para calcular potencias de una matriz, descom-
ponindola en la suma de dos ms simples (buscando, a ser posible, que una de ellas sea la matriz identidad y as
simplicar los clculos).
14
EL DETERMINANTE
Para una escritura ms cmoda representaremos cada matriz de orden n como una upla de longitud n2 :
(n)
Mn (K) K n K n : A = (aij ) (a1 , . . . , an ), ai = (ai1 , . . . , ain ) K n
Denicin y proposicin
Existe una nica aplicacin, llamada determinante:
det : Mn (K) K
que cumple las siguientes propiedades:
1. det(In ) = 1. Esta propiedad garantiza la unicidad del determinante.
2. Para cualquiera , K , con:
Propiedades
Las propiedades del determinante son en realidad reglas de clculo.
1. Si se multiplica una la por un escalar, el determinante queda multiplicado por dicho escalar.
det(a1 , . . . , ai , . . . , an ) = det(a1 , . . . , ai , . . . , an )
det(a1 , . . . , ai + aj , . . . , aj , . . . , an ) =
= det(a1 , . . . , ai , . . . , aj , . . . , an ) + det(a1 , . . . , aj , . . . , aj , . . . , an ) =
= det(a1 , . . . , ai , . . . , aj , . . . , an ) + 0
15
3. Si intercambiamos dos las, el determinanate cambia de signo.
Suponemos que queremos cambiar las las ai , aj :
0 = det(a1 , . . . , ai + aj , . . . , ai + aj , . . . , an ) =
= det(a1 , . . . , ai , . . . , ai + aj , . . . , an ) + det(a1 , . . . , aj , . . . , ai + aj , . . . , an ) =
= det(a1 , . . . , ai , . . . , ai , . . . , an ) + det(a1 , . . . , ai , . . . , aj , . . . , an )+
+det(a1 , . . . , aj , . . . , ai , . . . , an ) + det(a1 , . . . , aj , . . . , aj , . . . , an ) =
= 0 + det(a1 , . . . , ai , . . . , aj , . . . , an ) + det(a1 , . . . , aj , . . . , ai , . . . , an ) + 0
Por tanto:
0 = det(a1 , . . . , ai , . . . , aj , . . . , an ) + det(a1 , . . . , aj , . . . , ai , . . . , an )
det(a1 , . . . , ai , . . . , aj , . . . , an ) = det(a1 , . . . , aj , . . . , ai , . . . , an )
Nota: Si una matriz B se obtiene a partir de otra A mediante operaciones elementales por las, entonces det(B)
se obtiene multiplicando det(A) por los factores asociados a las operaciones elementales realizadas.
Propiedad. Escalonamiento
Podemos calcular el determinante de una matriz A de orden n haciendo operaciones elementales para convertir A
en una matriz escalonada reducida R.
Si rg(A) = n R = In det(R) = 1
Si rg(A) < n R tiene alguna la nula det(R) = 0
A B B0 R (
0
det(A) det(B) det(B 0 ) det(R) =
1
donde B 0 se obtiene realizando operaciones elementales con el factor 6= 0 sobre B , entonces det(B 0 ) = det(B).
As, leyendo de derecha a izquierda podemos calcular det(A).
Nota: El determinante de una matriz cuadrada es no nulo si, y slo si, su rango es mximo.
Proposicin
El determinante de una matriz cuadrada existe y es nico.
16
Demostracin :
Para n = 1:
donde A1j es la matriz de orden n 1 que se obtiene al suprimir en A la primera la y la columna j -sima.
a11 a12
det = a11 a22 a12 a21
a21 a22
La regla de Laplace nos dice como calcular el determinante, luego prueba su unicidad por el mtodo de induccin.
Para empezar, escribimos la matriz dada por las:
A = (a1 , . . . , an )
y la primera de las las como combinacin lineal:
n
X (j)
a1 = a1j ej , ej = (0, . . . , 0, 1 , 0, . . . , 0)
j=1
entonces:
Xn n
X
det(A) = det( a1j ej , a2 , . . . , an ) = a1j det(ej , a2 , . . . , an )
j=1 j=1
det(a) = a
cumple las propiedades de la denicin de determinante.
17
2. det(. . . , a0i + a00i , . . .) = det(. . . , a0i , . . .) + det(. . . , a00i , . . .)?
Suponemos primero i = 1, entonces tenemos:
n
X
det(a01 + a001 , a2 , . . . , an ) = (a01j + a001j )(1)1+j det(A1j ) =
j=1
n
X n
X
= a01j (1)1+j det(A1j ) + a001j (1)1+j det(A1j ) =
j=1 j=1
= det(a01 , a2 , . . . , an ) + det(a001 , a2 , . . . , an )
n
X n
X
= a1j (1)1+j det(A01j ) + a1j (1)1+j det(A001j ) =
j=1 j=1
Suponemos n 3 y que A tiene dos las iguales. Si ninguna de las las iguales es la primera, entonces todas
las matrices A1j de la regla de Laplace tienen una par de las repetidas y por induccin tienen el determinante
nulo, por tanto el sumatorio es nulo; y en consecuencia det(A) = 0.
Ahora bien, suponemos que las las iguales son las dos primeras (es lo mismo que si fuera la primera y otra
la i -sima con i > 2, ya que intercambiando las el determinante vara de signo, pero como ser nulo el signo
no nos importa).
n
X
det(A) = (1)1+j a1j det(A1j )
j=1
luego:
18
donde:
Bjk es la matriz obtenida al suprimir en A1j la la y la columna donde se encuentra el trmino a2k , esto
es, al suprimir en A las las primera y segunda, y las columnas j -sima y k -sima.
(
1 + k, k<j
k =
1 + (k 1) = k, k>j
As:
j1
X n
X
det(A1j ) = (1)1+k a2k det(Bjk ) + (1)k a2k det(Bjk ) =
k=1 k=j+1
j1
X n
X
= (1)1+k a2k det(Bjk ) (1)1+k a2k det(Bjk )
k=1 k=j+1
n
X j1
X n
X
det(A) = (1)1+j a1j ( (1)1+k a2k det(Bjk ) (1)1+k a2k det(Bjk )) =
j=1 k=1 k=j+1
X n
X
= (1)j+k a1j a2k det(Bjk ) (1)j+k a1j a2k det(Bjk )
1k<jn 1j<kn
Regla de Sarrus
Clculo del determinante de orden 3 por la regla de Laplace, su resultado se conoce como Regla de Sarrus.
a11 a12 a13
det a21 a22 a23 =
a31 a32 a33
a22 a23 a21 a23 a21 a22
= a11 det a12 det + a13 det =
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a22 a31 ) =
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31
Nota: El determinante de una matriz diagonal es el producto de los coecientes de su diagonal principal.
19
Proposicin
El determinante de un producto de matrices cuadradas es el producto de sus determinantes.
Demostracin :
Sea AB el producto de dos matrices cuadradas. El rango del producto es mximo si, y slo si, lo es el de los
factores. As slo nos ocuparemos del caso en que A y B tengan rango mximo, es decir, tengan determinante no
nulo.
Si A tiene rango mximo, mediante operaciones elementales por las, A es equivalente a una matriz escalonada
reducida R con todas las las no nulas, que es por tanto la identidad.
Si aplicamos esas mismas operaciones elementales a AB , obtenemos RB = B .
Invirtiendo las operaciones vemos que las mismas que transforman R en A, sirven para transformar B = RB en
AB .
As, los factores que se aplican para obtener det(A) a partir de det(R) = 1, son los mismos que se aplican para
obtener det(AB) a partir de det(RB) = det(B).
Entonces:
Proposicin
Los determinantes por las y por columnas coinciden.
Demostracin :
Si A no es invertible, tanto su rango por columnas como por las son menores que su orden, entonces:
Es cierto porque las operaciones elementales por las con operaciones por columnas del mismo tipo, por tanto
son las mismas que para la matriz identidad I .
En conclusin:
20
Nota: Como el determinanate por las coincide con el determinante por columnas, entonces:
det(A) = det(At )
Denicin. Traza
Denimos la traza como la suma de los elementos de la diagonal principal de una matriz cuadrada:
X
tr(A) = aii
i
Para n = 2:
1 1
4(a1 , a2 ) = det = a1 a2
a1 a2
Para n = 3:
1 1
1 1 1 1
4(a1 , a2 , a3 ) = det a1 a2
a3 = det 0 a2 a1 a3 a1 =
a21 a22
a32
0 a2 (a2 a1 ) a3 (a3 a1 )
1 1
= (a2 a1 )(a3 a1 )det = (a2 a1 )(a3 a1 )(a3 a2 )
a2 a3
Para n:
1 1 1
a1 a2 an
a21 a22 a2n
4(a1 , . . . , an ) = det
=
.. ..
. .
an1
1 an1
2 an1
n
21
desarrollamos el determinante por la primera columna y extraemos de cada columna los factores
(a2 a1 ), . . . , (an a1 ):
1 1 1
a2 a3 an
a22 a23 a2n
= (a2 a1 ) (an a1 )det
=
.. ..
. .
an2
2 an2
3 an2
n
Entonces:
Y Y
= (a2 a1 ) (an a1 ) (aj ai ) = (aj ai )
2i<jn 1i<jn
Nota: El determinante de Vandermonde es no nulo si, y slo si, todos los escalares ai son distintos.
22
APLICACIONES DEL DETERMINANTE
Denicin
Un menor de orden s de una matriz A Mmn (K) es el determinante de una matriz cuadrada de orden s que se
obtiene a partir de A eliminando m s de sus las y n s columnas.
Proposicin
Sea A una matriz no necesariamente cuadrada, y sea D un menor no nulo de A. Entonces el rango de A es el mayor
de los rdenes de los menores no nulos que contienen a D.
Demostracin :
Supongamos que D es un menor de orden s no nulo, cuya matriz denotamos M , por tener determinante no nulo,
el rango de M es mximo, luego sus s las son independientes. Cada una de estas las es parte de alguna la de A
por lo que A tiene al menos s las independientes:
rg(A) s
Si rg(A) > s, podemos aadir a M una la y una columna para obtener otro menor no nulo de orden s + 1. A
tiene que tener alguna la que no dependa de esas s las. Con ella y las s que ya tenemos formamos una submatriz
A0 de A que tiene s + 1 las independientes y tantas columnas como A. Adems, A0 contiene a nuestra submatriz
M.
Si las dems columnas de A0 dependieran de aquellas s, el rg(A) = s y no es el caso, por lo que hay alguna
columna de A0 que no depende de las s en cuestin.
Sea M 0 la submatriz de A0 cuyas columnas son las s columnas independientes de A0 que contienen a las s
columnas de M y a la nueva columna que no depende de ellas. Las s + 1 columnas de M 0 son independientes, M 0
es cuadrada de orden s + 1 con determinante no nulo y M 0 contiene a M , por lo que podemos concluir con que el
rg(A) es el mayor de los rdenes de los menores no nulos.
ij = (1)i+j det(Aij )
donde Aij es la matriz que resulta al eliminar la la i -sima y la columna j -sima.
Se cumple que:
n n
(
X X det(A) si k = j
ij aik = (1)i+j aik det(Aij ) =
i=1 i=1
0 si k 6= j
Si k = j , la matriz es A; si k 6= j , la matriz es la matriz A0 que resulta al sustituir la columna j -sima de A por
una copia de la k-sima, y como A0 tiene dos columnas iguales su determinante es 0.
Adj(A) = (ij )t
Si A es una matriz invertible:
Adj(A)
A1 =
det(A)
Nota: Una matriz A es invertible si, y slo si, det(A) 6= 0.
23
Regla de Cramer
Consideremos un sistema Axt = bt con n incgnitas, y la matriz A = (aij ) de rango n. Entonces:
Adj(A) bt
xt = (A1 A)xt = A1 (Axt ) = A1 bt =
det(A)
Para calcular el valor de la incgnita j -sima:
t
(1j , . . . , nj ) (b1 , . . . .bn ) 1j b1 + + nj bn
xj = =
det(A) det(A)
Para calcular la incgnita j -sima se siguen los pasos siguentes:
1. Se calcula el determinante de la matriz del sistema.
2. Se calcula el determinante de la matriz despus de reemplazar la columna j -sima por la de trminos inde-
pendientes.
3. Se divide el resultado del punto 2 por el del punto 1.
Nota: La regla de Cramer sirve para resolver cualquier sistema compatible.
24
UD 2
Espacios vectoriales
Espacios vectoriales de tipo nito
25
ESPACIOS VECTORIALES
Denicin
Un espacio vectorial sobre K es un conjunto E no vaco cuyos elementos se denominan vectores, dotado de dos
operaciones:
Suma: + : E E E
Producto por escalares: : E E E
que cumplen:
1. Suma
Conmutativa:
u + v = v + u u, v E
Asociativa:
u + (v + w) = (u + v) + w u, v, w E
Existencia de elemento neutro:
0 E / u + 0 = 0 + u = u u E
Existencia de elemento opuesto:
u E u E / u + (u) = 0
2. Producto por escalares:
Asociativa:
(u) = () u u E , K
Existencia de elemento unicidad:
1 K / 1 u = u u E
Distributiva respecto a la suma de escalares:
( + ) u = u + u u E , K
3. Distributiva respecto a la suma de vectores:
(u + v) = u + v u, v E K
Proposicin
26
Demostracin:
1. El elemento 0 es nico.
Suponemos que 00 otro elemento neutro. Entonces:
Como 0 + 00 = 00 por ser 0 neutro y 0 + 00 = 0 por ser 00 neutro, entonces tenemos que 0 = 00
2. = 0 = 0 = 0
(=)
Si = 0 tenemos v = u
v = 0 u = (0 + 0) u = 0 u + 0 u = v + v
si restamos v en ambos miembros:
v v = v + v v = 0 = v + 0 = v
Si u = 0 tenemos v = u
v = 0 = (0 + 0) = 0 + 0 = v + v
si sumamos v de la misma manera que antes:
0=v
(=)
Si u = 0 y 6= 0, podemos dividir por :
1 1 1
u=1u= u = (u) = 0 = 0
Si u 6= 0:
1 1 1
=1= u = (u) = 0 = 0
u u u
3. u = (1) u : unicidad del opuesto
0 u = u + (1) u u = u = (1) u
4. Si u = u, u 6= 0 = =
0 = u + (u) = u + (u) = ( ) u
como u 6= 0 = = 0 = =
5. Si u = v, 6= 0 = u = v
0 = u + (u) = v + (u) = (v u)
como 6= 0 = v u = 0 = u = v
27
Denicin
El producto cartesiano de dos espacios vectoriales dene una estructura de espacio vectorial sobre K:
Kn = { u = (x1 , . . . , xn ) : xi K i = 1, . . . , n }
u + v V , K u, v V
Denicin
Un vector u E depende linealmente de otros vectores u1 , . . . , ur E si
1 , . . . , r K / u = 1 u1 + + r ur
Diremos que los vectores u1 , . . . , ur E son linealmente independientes si ninguno depende de los dems.
Proposicin
Los vectores u1 , . . . , ur E son linealmente independientes si, y slo si, de cualquier combinacin lineal
1 u1 + + r ur = 0
obtenemos la solucin trivial: 1 = = r = 0
28
ESPACIOS VECTORIALES DE TIPO FINITO
Denicin
Un espacio vectorial E se denomina de tipo nito si:
u1 , . . . , uq E / u E, u = 1 u1 + + q uq
Todo vector es combinacin lineal de una coleccin nita de vectores.
Diremos que E = L [u1 , . . . , uq ] est generado por los uj , es decir, u1 , . . . , uq forman un sistema de generadores.
Sistemas generadores de Kn
Sabemos que Kn es de tipo nito, pero como reconocer una coleccin de vectores que genera el espacio:
Kn = L [u1 , . . . , uq ]
Supongamos uj = a1j , . . . , anj Kn 1 j q
u = 1 u1 + + q uq
Si calculamos componente a componente:
b = 1 a11 + + q a1q
1
..
.
b = a + + a
n 1 n1 q nq
de donde tenemos que u es combinacin lineal de uj si, y slo si, el sistema tiene solucin.
Denicin
Denominamos base de un espacio vectorial a un sistema ordenado de generadores formado por vectores independi-
entes.
29
Denicin
Supongamos que B = {u1 , . . . , un } es una base de E .
Denominamos coordenadas de u respecto a B a los coecientes (x1 , . . . , xn ) tales que:
u = x1 u1 + + xn un , x1 , . . . , xn K
Proposicin
Todas las bases de un espacio vectorial E de tipo nito tienen el mismo nmero de vectores.
Denominaremos a este nmero dimensin de E .
Nota:
dim(E) = 1 E es una recta
dim(E) = 2 E es un plano
Sea E un espacio vectorial de tipo nito. Sean B = {u1 , . . . , un } , B0 = {v1 , . . . , vn } dos bases de E .
Dado un vector u E denotamos sus coordenadas:
(x1 , . . . , xn ) respecto a B
(y1 , . . . , yn ) respecto a B 0
Entonces:
1. Existe una nica matriz C tal que
u E = y t = Cxt
C es nica ?
(j)
Veamos que las coordenadas respecto a la base B del vector uj son ej = (0, . . . , 0, 1 , 0, . . . , 0); por tanto sus
coordenadas respecto a la base B0 se obtienen calculando el producto:
C etj
que es la columna j-sima de C , en consecuencia tenemos que C est completamente determinada por la
condicin deseada.
2. Si B = B0 entonces C = In
Si B00 es otra base tal que C 0 = C (B0 , B00 ) entonces C 0 C = C (B, B00 ).
Si denotamos z las coordenadas respecto a B00 :
z t = C 0 y t = C 0 Cxt = (C 0 C) xt = C 0 C = C (B, B 00 )
30
Proposicin
Todo subespacio V de un espacio nito E es de tipo nito.
Adems,
dim(V ) dim(E)
Denominamos codimensin a la diferencia de dimensiones:
2 4 2 f4 2f1 0 0 0 0 0 0
Lasdos primerascolumnas son independientes, de manera que:
1 2 x1
0 1 x2 1 2 x1 1 2 x1
rg 0 1 x2 = 0 y det 0 1 x2 = 0
1 3 x3 = 2 = det
1 3 x3 2 4 x4
2 4 x4
Si
( desarrollamos los determinantes:( (
x3 + 2x2 x1 3x2 = 0 x1 x2 + x3 = 0 x1 + x2 x3 = 0
= =
x4 + 4x2 2x1 4x2 = 0 2x1 + x4 = 0 2x1 x4 = 0
seran las ecuaciones implcitas
31
UD 3
32
OPERACIONES CON SUBESPACIOS
Intersecciones de subespacios
Sea {Vi }i una coleccin arbitraria de subespacios de E . Entonces su interseccin
\
V = Vi
i
es un subespacio vectorial de E .
Nota: Para calcular la interseccin de dos subespacios formamos un sistema con las ecuaciones implcitas de
los subespacios.
Generacin de subespacios
Sea X E . Consideremos la coleccin {Vi } de todos los subespacios que contienen a X . Entonces
\
V = Vi
i
Suma de subespacios
Sean V1 , . . . , Vp subespacios vectoriales de E . El subespaico generado por su unin, X = V1 Vp , se denomina
suma y se denota:
p
X
L [X] = V1 + + Vp = Vp
i=1
vRu v w = u L
La clase de equivalencia de un vector es:
[v] = v + L = { v + u : u L }
Denominamos cociente mdulo L al espacio vectorial E/L sobre K.
Proposicin
Cualquier subespacio de E es interseccin de hiperplanos.
El nmero mnimo necesario es la codimensin del subespacio.
33
Proposicin. Frmula de Grassmann
Sean V, W dos subespacios de E . Entonces:
Demostracin:
Suponemos que V, W 6= {0} y que V W 6= {0}, ya que en este caso la frmula se cumple trivialmente.
Sea {u1 , . . . , ud } una base de V W . Si le aadimos los vectores v1 , . . . , vp V obtenemos una base de V ; y
aadiendo los vectores w1 , . . . , wq W obtenemos una base de W . As tenemos que:
dim(V W ) = d
dim(V ) = d + p
dim(W ) = d + q
Por tanto debemos probar que: dim(V + W ) = d + p + q
Veamos si {u1 , . . . , ud , v1 , . . . , vp , w1 , . . . , wq } es una base de V + W .
Est claro que esta coleccin de vectores genera todo el espacio V + W como consecuencia de que la suma
consiste en la suma de vectores. As slo nos queda comprobar que sean independientes:
X X X
j uj + k vk + l wl = 0
j k l
X X X
j uj + k vk = l wl V W
j k l
X X X
j uj + k vk = j u j
j k j
Proposicin
Sea L un subespacio de E . Entonces E/L es de tipo nito y se cumple que:
34
APLICACIONES LINEALES
Denicin
Sean E, F dos espacios vectoriales sobre un mismo cuerpo K. Una aplicacin f : E F se denomina lineal cuando
conserva las combinaciones lineales:
f (1 u1 + + r ur ) = 1 f (u1 ) + + r f (ur ) , i K, ui E
Proposicin
Sea f : E F una aplicacin lineal. Se cumple que:
1. f (0) = 0
2. f (u) = f (u) u E
Ejemplo: Son aplicaciones lineales:
Aplicacin identidad: IdE : E E
= L : E E/L
Proyeccin:
v 7 [v]
h: EE
Homotecia vectorial de razn :
v 7 v
Denicin
El conjunto de todas las aplicaciones lineales de un espacio vectorial E en otro F se denota por:
L (E, F )
Por tanto:
f (x, y, z) = (3, 0, 1) + (1, 1, 1) + (1, 2, 0) =
= y (3, 0, 1) + (x 2y) (1, 1, 1) + (x 3y + z) (1, 2, 0) =
= (3y + x 2y x + 3y z, x 2y + 2x 6y + 2z, y x + 2y) =
= (4y z, 3x 8y + 2z, x + 3y)
35
Proposicin
Sea f : E F una aplicaicn lineal. Sean V E, W F subespacios vectoriales.
Entonces,
1. La imagen f (V ) es un subespacio vectorial de F :
f (V ) = { f (v) F : v V }
f 1 (W ) = { u E : f (u) W }
Proposicin
Sea f : E F una aplicacin lineal.
Las siguientes armaciones son equivalentes:
(i) f conserva la independencia lineal: si u1 , . . . , up son independientes en E , entonces sus imgenes f (u1 ), . . . , f (up )
son independientes en F .
(ii) El ncleo de f es trivial: ker(f ) = {0}
(iii) f es inyectiva
Demostracin:
(i) = (ii)
Para un slo vector, ser independiente es ser no nulo.
(ii) = (iii)
Si f (u) = f (v) = f (u v) = f (u) f (v) = 0
de donde u v ker(f ) = u v = 0 = u = v y por tanto f es inyectiva.
(iii) = (i)
Sean u1 , . . . , up E vectores independientes.
Sea la combinacin lineal: 1 f (u1 ) + + p f (up ) = 0
Por linealidad:
1 f (u1 ) + + p f (up ) = f (1 u1 + + p up )
1 u1 + + p up = 0
Los uj son independientes, luego todos los j = 0, por tanto las imgenes son independientes.
36
Proposicin
Sea f : E F una aplicacin lineal. Si f es biyectiva, entonces su inversa f 1 es tambin lineal.
Proposicin
Sea f : E F una aplicacin lineal. Consideremos la proyeccin : E E/ker(f ) y la inclusin j : im(f ) , F .
Entonces,
f =jf
f tiene la factorizacin cannica:
f f
E F v f (v)
j : j
f f
E/ker(f ) im(f ) [v] f ([v]) = f (v)
donde es suprayectiva, f es biyectiva y j es inyectiva.
u = v + w, v V, w W
De esta manera podemos denir las aplicaciones:
(i) La proyeccin p : E E : u 7 v , denominada de base V y direccin W .
(ii) La simetra s : E E : u 7 v w, denominada de base V y direccin W .
im(p) = V ker(p) = W
Si s : E E es una aplicacin lineal, entonces:
37
Proposicin
Sea f : E F una aplicacin lineal, donde E, F son de tipo nito.
Entonces,
Propiedades
1. Si f es inyectiva = dim (E) dim (F )
2. Si f es suprayectiva = dim (E) dim (F )
3. Si dim (E) = dim (F ) f es biyectiva
Proposicin
Sea E un espacio vectorial de tipo nito. Consideramos una base de E, B = {u1 , . . . , un }.
Sea F un espacio vectorial no necesariamente nito tal que v1 , . . . , vn F .
Entonces existe una nica aplicacin lineal f : E F tal que:
f (u1 ) = v1 , . . . .f (un ) = vn
Demostracin:
Si existe es nica est claro ya que:
E = L [u1 , . . . , un ]
Construyamos f :
Cualquier vector u E es de la forma:
u = x1 u1 + + xn un
entonces denimos:
y t = M xt
M recibe el nombre de matriz def respecto a las bases BE , BF y se denota por:
M = Mf (BE , BF )
Denominamos ecuaciones de f respecto a las bases dadas, a las igualdades:
38
n
X
yi = aij xj
j=1
Ejemplo: f : K3 K3
f (2, 1, 1) = (3, 0, 1)
f (1, 0, 1) = (1, 1, 1)
f (0, 0, 1) = (1, 2, 0)
39
Rango de una aplicacin lineal
Sea f : E F una aplicacin lineal entre espacios de tipo nito.
Sean las bases BE , BF cuyos vectores tienen de coordenadas x, y respectivamente.
Consideremos la matriz M = Mf (BE , BF )
Sabemos que la imagen est generada por las imgenes de los vectores de BE , como las columnas de M son las
coordenadas de esas imgenes respecto a BF :
rg (f ) = rg (M ) = dim (im (f ))
40