Sei sulla pagina 1di 39

1

3 MATRICES Y ALGEBRA LINEAL


3.1Definicin de matriz
Una matriz A= aij m ,n es un arreglo rectangular de elementos aij ubicados en m filas y
n columnas

A=

a11 a12 ... a1n


a a ... a
21 22 2n
....................

(2.1)

am1 am2 ... amn


Donde a ij es el elemento ubicado en la i-sima fila y la j-sima columna. Los elementos
que forman la matriz pueden ser nmeros complejos o magnitudes de cualquier campo
fsico con una estructura an ms compleja. En particular si los aij son nmeros reales,
entonces A es denominada una matriz real.
La dimensin de A es mxn y cuando m=n se dice que A es una matriz cuadrada. Si
n=1, diremos que A es una matriz columna o un vector columna (ms especficamente
un vector columna m-dimensional). Si a la inversa m=1, A es una matriz fila. Cuando
m=n=1 A se reduce a un solo elemento o a un escalar. Si a ij =0 para todo i y j,
entonces A es la matriz nula.
3.1 Operaciones con matrices
Igualdad de matrices: Dos matrices A= a ij m ,n y B= bij m , n del mismo orden (es
decir con igual nmero de filas y columnas) son iguales, A=B, si y slo si aij = bij
para todo i y j.
Multiplicacin de una matriz por un escalar: Sea un nmero complejo y sea A=
aij m,n una matriz de dimensiones mxn; entonces, el producto A es una nueva
matriz C= cij m , n , tal que cij aij para todo i y j.
Adicin y sustraccin de matrices: Si dos matrices A= aij m ,n y B= bij m , n tienen el
mismo orden (dimensin) definimos la suma o diferencia de matrices, C=A B, como
una nueva matriz C= cij m , n , tal que cij aij bij para todo i y j. La adicin de
matrices es una operacin conmutativa, es decir A+B=B+A, o en una forma ms
general A+B+C = (A+B )+C = A +(B +C ), no ocurre lo mismo con la sustraccin.

2
Multiplicacin de matrices: Sea A= aij m ,n (de dimensin mxn) y B= bij n , p (de
dimensin nxp), se define el producto entre matrices, A B A B, como una nueva
matriz C= cij m , p (de dimensin mxp), donde
n

cij a ik bkj

(2.2)

k 1

Ejemplo1:

A=

AB=

a11 a12
a a
21 22

B=

a11b11 a12b21 a11b12 a12b22


a b a b a b a b
21 11 22 21 21 12 22 22

b11 b12
b b
21 22
BA=

a11b11 a21b12 a12b11 a22b12


a b a b a b a b
11 21 21 22 12 21 22 22

Ejemplo 2:

A=

1 0 1
2 i 3

1 0

B= 2 i

3 1

4
0

, AB=

2 1 4 i
11 2i 2 8 3i

Debemos hacer notar que la multiplicacin AB est definida si y slo si el nmero de


columnas de A es igual al nmero de filas de B. En este caso se dice que ambas
matrices son conformables en el orden indicado (AB). En general el producto entre
matrices no es conmutativo (ver Ejemplo 1), es decir: AB BA. Si A= a ij m ,n y B=
bij n , p , entonces AB est definido, pero BA no lo est a menos que m=p. Sin embargo,
si m=p, AB y BA son de distinto orden, a menos que m=n. Si A y B son matrices
cuadradas (igual nmero de filas que de columnas) y del mismo orden, entonces el
producto conmuta, AB=BA.

Ejemplo 3:

A=

1 2
3 4

B=

3 2
3 0

, entonces

AB=BA

Resulta consistente con las definiciones anteriores, el dividir una matriz en submatrices
menores. Este proceso es conocido como particin de una matriz y resulta muy til en
programacin, especialmente cuando se trabaja con matrices de grandes dimensiones.
Por ejemplo, si partimos simtricamente una matriz cuadrada A de orden tres de la
forma

A=

a11 a12 a13


a a a
21 22 23

B11 B12

B21 B22
a31 a32 a33

Donde los elementos de la particin son las submatrices

a1 a12
B1
a 21 a 2

a13
B12
a23

, B21 a31 a32

y B22 a33

Si hacemos una particin similar para una matriz cuadrada C de orden tres

C=

c11 c12 c13


c c c
21 22 23

c31 c32 c33

D11 D12

D D
21 22
3

4
Se verifica que la suma o diferencia y el producto de ambas matrices puede ser
expresado en funcin de sus submatrices como:

A B=

B11 D11 B12 D12


B D B D
21 21 22 22

AB=

B11D11 B12 D12


B D B D
21 21 22 22

(2.3)

En general se puede afirmar que, si partimos dos matrices conformables en un


producto, sern condiciones necesarias y suficientes para aplicar la definicin siguiente:
(la adicin, sustraccin y producto de dos matrices puede ser obtenida a partir de la
adicin, sustraccin y producto de sus correspondientes submatrices ) que a cada
lnea vertical de particin que separe las columnas k y k+1 del primer factor,
corresponda una lnea de particin horizontal que separe las filas k y k+1 del segundo
factor, y que en el segundo factor no haya lneas de particin horizontal adicionales.
Las particiones, pueden hacerse independientemente en columnas, filas o combinadas
como en el caso anterior.
Supongamos que tenemos las matrices A y D, tales que:

A=

a11 a12
a a
21 22

AD=F=

D=

d11 d12
d d
21 22

a11d11 a12d21 a11d12 a12d22


a d a d a d a d
21 11 22 21 21 12 22 22

Si partimos en columnas las matrices D y F

D=

F=

d11 d12
d d
21 22

= DI DII

a11d11 a12d21 a11d12 a12d22


a d a d a d a d
21 11 22 21 21 12 22 22

= FI FII

tendremos un hecho ya conocido de que cada columna de F puede ser obtenida


premultiplicando la columna correspondiente de D por la matriz A. Es decir
FI =A DI
FI =A DII
y
De una manera similar, si partimos en filas las matrices A y F veremos que cada fila de
F es el resultado de postmultiplicar las filas correspondientes de A por la matriz D .
Lo anterior resulta sumamente til en el caso de matrices grandes como ocurre en
meteorologa, oceanografa y en la geofsica en general, donde la longitud de las series
de datos, como el nmero de localidades donde se toman los mismos, es grande (en la
prctica es frecuente trabajar con matrices de datos con dimensiones cercanas a 1000 x
1000).
Particionar las matrices al confeccionar un programa implica una gran economa tanto
en memoria como en tiempo de ejecucin.
3.2 Definiciones
Transpuesta de una matriz: Al intercambiar las filas y columnas de una matriz A=
aij m,n se obtienen la denominada matriz traspuesta de A, AT. Es decir, AT= aij' n,m
'
donde aij a ji para todo i y j. Debemos hacer notar que la dimensin de AT es de nxm.

Matrices simtricas y antisimtricas: Una matriz cuadrada A= a ij m , m es simtrica


si A= AT y asimtrica si A= -AT.
Matriz conjugada: Sea a ij el complejo conjugado de aij , entonces la matriz
conjugada de A= aij m ,n es a ij .
Matriz traspuesta conjugada: La traspuesta conjugada de A= aij m ,n , es A*= T.

6
Matrices hermticas y antihermticas: Si una matriz cuadrada A= a ij m , m satisface
que A= T, entonces se dice que A es hermtica. Si A= - T entonces se dice que A es
antihermtica.
Traza de una matriz: Sea una matriz cuadrada A= a ij m , m , entonces la diagonal
principal de A esta formada por los elementos a ij tales que i=j. Se define como traza
m

de la matriz A la suma de los elementos de la diagonal principal ( trA= a ii ).


Matriz diagonal: A es una matriz diagonal si

a ij

=0 para i j.

i 1

Matriz triangular superior: A es una matriz triangular superior si aij =0 para i<j y
estrictamente triangular superior si a ij =0 para i j.
Matriz triangular inferior: A es una matriz triangular inferior si aij =0 para j>i y
estrictamente triangular inferior si a ij =0 para j i.
Matriz identidad: Se define como matriz identidad(o unitaria), I= a ij m , m = I n ,
aquella matriz que satisface las condiciones que a ii =1 para i=1,,m y aij =0 si i j.
Frecuentemente resulta til la notacin que utiliza la denominada delta de Kronecker:

0 cuando i j
ij
1 cuando i j

(2.4)

Utilizando esta notacin, podemos escribir la matriz identidad en la forma


I= ij
Matriz normal: Se dice que A es una matriz normal si A A*= A*A.

(2.5)

Matriz unitaria: Se dice que una matriz A es unitaria si satisface que A A*= A*A=I.
Matriz indempotente: Se dice Se que A es una matriz indempotente si A2=AA=A I.
Matriz nilpotente: Si r>0 es el menor entero que satisface que Ar=0, donde
Ar=AA .. A (r veces), entonces A es nilpotente con ndice r.

3.3

Algunas propiedades de las matrices

De las operaciones y definiciones anteriores el lector


propiedades interesantes de las matrices:

podr deducir algunas

- Para cualquier matriz A, las matrices definidas como A A* y A*A son hermticas y
tr(A A*)=tr(A*A)= aij , donde
2

a ij

a ij a ij

- Si A= aij np y B= bij pn , entonces tr(AB)=tr(BA).


- Cuando el producto AB est definido, entonces (AB)*=B*A*.

- La matriz identidad satisface que: AI=IA=A e I n=I para cualquier n>0.


- Si A es una matriz hermtica, entonces iA es anti-hermtica.
- Cualquier matriz cuadrada A puede ser expresada como la suma de una matriz
simtrica 1/2 (A+ AT) y una asimtrica 1/2 (A- AT).
- Cualquier matriz cuadrada A puede ser expresada como la suma de una matriz
hermtica 1/2 (A+ A*) y una antihermtica 1/2 (A- A*).
- Sea una matriz cuadrada A=(1/m) a ij m , m , donde aij =1 para todo i,j, entonces A es
indempotente.
-

(A+B)T=AT+BT ,

(AB)T=BTAT

(AT)T=A

3.4 Determinantes
Sea una matriz cuadrada A= a ij n ,n , definimos como determinantede orden n a un
nmero asociado a A que indicaremos por det(A)= A aij

a11 a12 ...... a1n


det(A)=

a21 a22 ...... a2n


........................

(2.6)

an1 an2 ....... ann


Para definir el valor de un determinante necesitamos introducir algunos conceptos
Menor: Dado un elemento a jk de det(A), asociamos un nuevo determinante de orden
(n-1) que se obtendr luego de remover todos los elementos de la fila j-sima y de la
columna k-sima. Este nuevo determinante se llamar menor correspondiente al
elemento a jk , que designaremos como Mjk.
Ejemplo:
El menor correspondiente al elemento a 22 del determinante det(A) se obtiene en la
siguiente forma (eliminando la fila y columna marcadas con y )

a11
det (A)=

a12

a13............ a1n

A a21 a22 a23 ... ... a2n

entonces

............... ...........................
an1 an 2 an3........... ann

a11
a21

an1

M22=

a13
a23

an 3

a1n
a2 n

anm

Cofactor: Si multiplicamos el menor Mij por (-1)i+j, el resultado se denomina cofactor de


a ij y la designaremos como Aij.
Ejemplo 4:

5 2 0
3 1 2

A=
1 4 2

entonces

A21=(-1)2+1

2 0
4 2

= -M21

Matriz adjunta(o adjunta de una matriz). La adjunta de una matriz cuadrada A es la


traspuesta de la matriz que se obtiene al sustituir cada elemento de la misma por su
cofactor. Es decir:

A=

a11 a12 ....... a1n


a a ....... a
21 22 2n

entonces

an1 an2 ....... ann


8

T
A
A
......
A
11 12 1n A11 A21 ...... An1
A A ...... A A A ....... A
12 22
n2
21 22
2n
Adj(A)=
=
......................... .......................


An1 An 2 ...... Ann A1n A2n ......... Ann
Determinante. El valor del determinante de una matriz cuadrada A de orden n, se define
como la suma de los productos de los elementos de una fila fila (o columna) cualquiera
de dicha matriz por sus correspondientes cofactores. Esto nos conduce a las
denominadas frmulas de desarrollo de Laplace.
n

det(A)= aik Aik

det(A)= a kj Akj

k 1

(2.7

k 1

a,b)
para cualquier valor de i o j.
Comentemos algunas propiedades de los determinantes, las que simplifican mucho la
evaluacin de los mismos.
1.- Si todos los elementos de una fila (o columna) son iguales a cero, el determinante
es nulo.
2.- El valor de un determinante no cambiar si se intercambian sus filas y columnas.
Es decir det(A)=det(AT).
3.- det(I)=1
4.- Sea un escalar y A una matriz cuadrada de orden n, entonces det( A)= n
det(A)
5.- El intercambio de dos filas (o dos columnas) cualesquiera cambia el signo de su
determinante.
6.- Si los elementos correspondientes a dos filas (o columnas) son iguales o
proporcionales, el determinante ser nulo.
7.- Si A y B son matrices cuadradas del mismo orden, entonces:
det(AB)=det(A) det(B)

3.5

Desarrollo por filas o columnas

10
Un caso especial de las frmulas de Laplace es el desarrollo de un determinante por una
cierta fila o columna. El desarrollo por la i-sima fila de una matriz cuadrada A de orden
n, es de acuerdo a (2.7)
n

j 1

j 1

k j
det(A)= ik ( 1) a kj M kj = ik a kj Akj

(2.8a)
Similarmente si desarrollamos por la j-sima columna
n

det(A)= jk (1)
i 1

ik

aik M ik jk aik Aik


i 1

(2.8b)
La comprobacin de las propiedades 1 a 4 es una cuestin sencilla a partir de (2.8a) o
(2.8b)
Para comprobar la propiedad 5 procederemos inductivamente:
i)

Las columnas que se permutan son consecutivas (la k-sima con la (k+1)sima) columna

j= 1 2 k

k+1 n

j=

2 k

k+1 n

a11 a12 ... a1k a1( k 1) ....a1n

a11 a12 ... a1( k 1) a1k ....a1n

a21 a22 ...a2k a2( k 1) ....a2n

A=
......................................

an1 an 2 ...ank an( k 1) .....ann

a21 a22 ...a2( k 1) a2k ....a2n

A=
......................................

an1 an 2 ...an( k 1) ank .....ann

Sea

(2.9)
Desarrollando A por la k-sima columna (2.8b)
n

i 1

i 1

i 1

ik
ik
det(A)= jk (1) a ij M ij (1) a ik M ik a ik Aik

(2.10)
Desarrollando A por la (k+1)-sima columna
n

det(A)= j ( k 1) ( 1)
i 1

i k 1

aij M ' i ( k 1) a i ( k 1) A' i ( k 1)


i 1

(2.11)
para cualquier valor de i, cada k en las sumatorias (2.10) y (2.11) verifica que:
( 1) i k aik M ik ( 1)(1) i k a i ( k 1) M ' i ( k 1)

Dado que los a ik a i ( k 1) y M ik M 'i ( k 1)


10

para cada i,k

11
Por lo tanto

det(A)= - det(A)

ii) Suponemos vlida la propiedad para permutaciones entre las columnas k-sima y
(k+h)-sima (columnas separadas h lugares), es decir que se verifica que det(A)= det(A).

a11 a12 ... a1( k h) ... a1k .... a1n

a 21 a 22 ...a 2( k h ) ... a2 k ....a2 n

det(A) = (-1) det


................................................

a n1 a n 2 ...a n( k h) ... a nk .....a nn


iii) Debemos demostrar que tambin se verifica para permutaciones entre las
columnas k-sima y (k+h+1)-sima

a11 a12 ... a1k a1(k 1)

...

a1(k h) a1(k h1) .... a1n

a21 a22 ...a2k a2(k 1) ... a2(k h) a2(k h1) .... a2n

det
................................................................

an1 an2 ...ank .... an(k 1) ... an(k h) an(k h1) ..... ann

a11 a12 ... a1(k 1) a1k

...

a1(k h) a1(k h1) .... a1n

a21 a22 ...a2(k 1) a2k ... a2(k h) a2(k h1) .... a2n

(-1) det
................................................................

an1 an2 ...an(k 1) .... ank ... an(k h) an(k h1) ..... ann

Por ( i) (se permutaron dos columnas consecutivas, indicadas con )

11

12

a11 a12 ... a1(k 1) a1(k h1)

...

a1(k h) a1k .... a1n

a21 a22 ...a2(k 1) a2(k h1) ... a2(k h) a2k .... a2n

det
................................................................

an1 an2 ... an(k 1) .... an(k h1) ... an(k h) ank ..... ann

por (ii) (se permutaron dos columnas separadas por h posiciones, indicadas con

a11 a12 ... a1(k h1) a1(k 1)

a1(k h) a1k .... a1n

...

a21 a22 ...a2(k h1) a2(k 1) ... a2(k h) a2k .... a2n

= (-1) det
................................................................

an1 an2 ... an(k h1) .... an(k 1) ... an(k h) ank ..... ann
Por (i) (se permutaron dos columnas consecutivas, indicadas con ), quedando
demostrado iii).
La propiedad 5 se obtiene como una consecuencia de la propiedad 4
El resto de las propiedades de demuestran fcilmente y quedan como ejercicio para el
lector.
Si en (2.7 a) reemplazamos a ik por a rk , el resultado a rk Aik debe ser el
determinante de una nueva matriz, donde los elementos de la fila i estn reemplazados
por los elementos correspondientes a la fila r. Por consiguiente debe anularse si i r
por la propiedad 7. Se obtienen un resultado similar si reemplazamos a rj por a ks en
(2.7 b) cuando s j . De esta forma adems de (2,7 a,b) tendremos las relaciones:
n

a
k 1

rk

Aik 0 ( r i )

a
k 1

ks

Akj 0

(s j)

(2.12

a,b)
2.7 La matriz inversa
Definiremos en primer lugar Demostraremos que una matriz cuadrada tiene inversa si y
slo si su determinante es distinto de cero.
Sea A una matriz cuadrada de orden n la que suponemos que posee inversa. Entonces
existe una cierta matriz B, tal que

12

13

AB=BA=I

(2.13)

Entonces
det( AB)= det(BA) =det( I )
Segn las propiedades 6 y 1
det(A) det(B)= det(B) det(A)= 1

(2.14)

En consecuencia det(A) 0, pues en caso contrario su producto con det(B) sera nulo y
no igual a 1.
Previamente necesitaremos probar una propiedad del deteminante:
9- Cualquiera sea la matriz cuadrada A, de orden n, se verifica que:
A Adj(A)=Adj(A) A=det(A) I

(2.15)

Aplicando la definicin de matriz adjunta tenemos que:

a11 a12 ....... a1n


a a ....... a
21 22 2n

A11 A21 ...... An1


A A ....... A
n2
12 22
A Adj(A)=
.......................

an1 an2 ....... ann A1n A2n ......... Ann

j 1

a1 j A1 j

a2 j A1 j

= j 1

j 1

anj A1 j

j 1

j 1

a1 j A2 j . a1 j Anj
a

2j 2j

2 j nj

n
n

j1 anj A2 j j1 anj Anj

j 1

j 1

diagonal principal son nulos en virtud de(1.8 a)

13

donde los trminos fuera de la

14

A 0 0

= 0 A 0

0 0 A

por la propiedad 8

1 0 0
0 1 0
= det(A) I
A

0 0 1

En forma anloga se comprueba que


Adj(A) A=det(A) I.
Entonces si det(A) es un escalar distinto de cero, dividiendo por el en (2.15) tendremos
A Adj(A)(det(A))-1=Adj(A) A (det(A))-1=I
Entonces por definicin existe A-1 y es
A-1= Adj(A) (det(A))-1

(2.16)

Si una matriz no tiene inversa se dice que es una matriz singular. Una matriz A tiene
inversa, si y slo si det(A) 0. En forma equivalente, una matriz A es no-singular, si y
slo si det(A) 0.
En particular si A y B son dos matrices no singulares se verifica que su producto es
tambin no singular.
Si

AB=C con det(A) 0 y det(B) 0 , entonces

(2.17)

det(AB)= det(A) det(B) (de acuerdo a la propiedad 7)= det(C) 0


Por otra parte, para determinar la inversa de un producto de matrices cuadradas no
singulares, partimos de
AB=C
Premultiplicando ambos lados de la ecuacin sucesivamente por A-1 y B-1
B-1(A-1A) B= B-1 A-1C
I= B-1 A-1C

14

15

Posmultiplicando ambos lados de la ecuacin por C-1


I C-1= B-1 A-1
Es decir
C-1= B-1 A-1

(2.18)

2.8 Rango de una matriz


Definimos el rango de una matriz A (nxs), como el orden de la submatriz cuadrada ms
grande al particionar A cuyo determinante no se anula. Es decir

a11 a12 a1r a1s


a1s

A= a a a a =
r1 r 2
rr rs

ars

an1 an 2 anr ans an1 an2 anr ans


tal que, r es el mximo valor ( s>r, n>r) para el que se verifica que det(R) 0 .
Entonces r es el rango de A.
2.9 Matrices ortogonales
Una matriz real A (es decir que todos sus elementos son reales,

aij R ) es una matriz

ortogonal si su traspuesta (AT ) es igual a su inversa (A -1). Es decir:


AT= A -1 o

AT A=I

(2.19)

2.10 Espacio vectorial lineal


Tal como en el caso de las matrices podemos restringir el resultado (2.19) al caso de los
denominados vectores numricos. En el anlisis vectorial convencional dos vectores

A ( a1 , a 2 , a 3 ) y B (b1 , b2 , b3 ) , se consideran perpendiculares si su producto


escala es nulo ( a1b1 a 2 b2 a3 b3 ) 0 ). Desde el punto de vista matricial podemos
considerar a los vectores como matrices columnas

15

16

a1

A= a
2
a3

b1

B= b
2
b3

(2.20)

Frecuentemente se denominan a las matrices columnas como vectores numricos para


distinguirlos de los vectores geomtricos o fsicos, tal como una fuerza o una
aceleracin). Entonces, definimos el producto escalar (o interno) de dos vectores reales
A y B R3 como ATB
ATB= a1b1 a 2 b2 a3 b3
(2.21)
y decimos que son ortogonales si ATB=0. Podemos ver que el producto escalar (ATB)

es equivalente, en notacin matricial, al producto escalar A B del anlisis vectorial.
Es convenirte generalizar este resultado de la ortogonalidad al caso de vectores cuyos
elementos son complejos, en tal caso en lugar de utilizar la traspuesta empleamos la
traspuesta conjugada. Es decir, dos vectores A y B son ortogonalesen el sentido
hermtico si su producto interno, definido como TB, es nulo.
En particular un vector cero es ortogonal a todos los vectores de la misma dimensin.
Sea un vector de dimensin n

A=

a1
a
2

an
(2.22)
Definimos el cuadrado de la longitud de A como el producto escalar ATA. Es decir
long2(A)= a12 a 22 a n2

(2.23)

Decimos que un vector es un vector unidad cuando su longitud es igual a la unidad, de


manera que ATA=1. Tal como en el caso del anlisis vectorial se comprueba la
desigualdad de Schwarz. Sean A y B R n entonces
( AT B ) ( AT A) 1 / 2 ( B T B ) 1 / 2

(2.24)
donde
significa el valor absoluto.
Es decir que la magnitud del producto escalar entre A y B no es mayor que el producto
de las longitudes de A y B.
16

17
De forma anloga al caso del anlisis vectorial obtenemos que
cos

AT B
( A A) ( B T B )1 / 2
T

( )

1/ 2

(2.24)

Lo que proporciona una interpretacin para el ngulo entre los vectores A y B R n,


para el caso general de n dimensiones..
Cuando los vectores son complejos, las propiedades de ngulo y longitud tienen en
general un significado limitado y es conveniente definirlos en una forma mms
apropiada, para que se reduzcan a (2.22) y (2.24) en el caso real. Definimos en general
el cuadrado de la longitud hermitiana de un vector A C n como la cantidad real y
positiva
long2H(A)= TA= a1 a1 a 2 a 2 a n a n
donde T es la conjugada traspuesta de A.
De manera similar definimos el ngulo hermitiano H comprendido entre A y B como
una cantidad real definida por la relacin
T

cos H

( A B ) ( B A)
T

( H )

2( A A)1 / 2 ( B B )1 / 2

(2.25)

Decimos que un conjunto de k vectores A1 , A2 , , Ak es linealmente independiente si


no existe ningn conjunto de constantes c1 , c 2 , , c k , de las cuales alguna sea
distinta de cero, tal que:
c1 A1 c 2 A2 c k Ak 0

(2.26)
Es decir c1 , c 2 c k 0
Definamos en lgebra un espacio vectorial R n (de vectores reales de dimensin n), al
conjunto de vectores de la forma (2.21) que satisfacen los siguientes axiomas:
1.- Existe una operacin (+) sobre los vectores tal que si A y B R n entonces
A+B=B+A=C R n.

A+B=

a1
a
2

b1
b
2

an

bn

El elemento identidad es el vector 0, tal que

17

a1 b1
a b
2 2

=B+A=C

a n bn

18

2.- Para cada escalar

0
0

0=


0

y A R n, existe otro vector A R n

A=

a1
a
2

a1
a
2

Adems

a) ( A)=( )A
c) (A+B)= A+

an

an

b) 1 A= A
d) ( )A= A+ A

Si A1 , A2 , , Am es un conjunto de vectores de dimensiones n, tal que todos los


vectores del espacio vectorial pueden expresarse como combinacin lineal de los
vectores A1 , A2 , , Am, entonces se dice que dicho conjunto es un sistema generador.
Adems el conjunto A1 , A2 , , Am se dice que es una base de R n si y slo si no
solamente es un sistema generador sino tambin linealmente independiente.
Ejercicios:
1.a) Calcular la matriz

3 0 3
A
6 0 1

1
A B , sabiendo que
3

1 1 0
B
2 0 2

18

19

1.b) Determinar la matriz

x11 x12 x13


X
x21 x22 x23

sabiendo que X B I

1.c) Sean las matrices

1 1 1
C 0 1 0
3 1 2

1 1
D 0 0
2 2

Calcular: c.1) C 2
c.2) CD
c.3) C T D T
c.3) (C T I )(C I )
1.d) Resolver la ecuacin E 2 X 2 I , donde todas son matrices de dimensiones 2x2 y

i 1
E
1 i

1.e) Demostrar que si A y B son matrices diagonales en R nxn, entonces AB es diagonal


y AB=BA.

1.f)

Demostrar que la matriz

0 i
A
i 0

1.g)
Demostra que si A R
IA=AI=I
1.h)

nxn

es hermtica

e I es la matriz identidad de orden n, entonces

Sabiendo que en R nxn se verifica que XA=I

19

y AY=I, demostrar que X=Y.

20
1.i) Utilizar la definicin del desarrollo de un determinante por filas o columnas (2.8
a,b) para evaluar el determinante de

a1 a12
A
a21 a2

3 2 2
B 1 2 3
4 1 2

1,j) Resolver la siguiente ecuacin

1 0 2

=0
det 0
0

2 0 4
1,k) Sea la matriz

0 3
A 2 0

2 1

4
3

Resolver la ecuacin det(A- I)=0


1, m) Obtener las matrices inversas de

1 0
A
a 1
1,n)

a 0
B
0 b

con a 0 y b 0

Sean las matrices

20

21

3 2
A 2 1
1 2

1
3

1
B 0
3

Hallar X sabiendo que AX=B


1,o) Verificar la siguiente identidad

1 1 1

det x y z (x y)( y z)(z x)

yz xz xy

cos sen
A
sen cos

1.p)

Verificar que

es una matriz ortogonal

1,q)

Determinar el ngulo entre los vectores

1
1

A=
1

1

2.11 Sistemas de ecuaciones lineales

21

1
0

B=
0

1

22
De finimos un sistema de m ecuaciones lineales con n incgnitas ( x1 , x 2 , , x n ) en
la forma

a11 x1 a12 x 2 a1n xn c1


a x a x a x c
21 1 22 2
2n n
2

(2.27)


a m1 x1 am 2 x 2 a mn x n c m

Todo conjunto de nmeros x1 , x 2 , , x n que verifique el sistema de ecuaciones


(2.27) es una solucin del sistema. En forma matricial el sistema (2.27) puede ser
escrito en la forma:

x1 c1
a a ....... a
a a ....... a x c

2 2


a a ....... a

xn c n
11 12

1n

21

22

2n

m1

m2

(2.28)

mn

O en una forma matricial


A X=C
n

a
k 1

ik

x k ci

k 1

ik

x k ci

(2.29)
(i 1, 2, , m)

(2.30 a)
(2.30

b)
Es comn encontrar en la bibliografa estas ecuaciones escritas utilizando la convencin
de Einstein, la cual implica que la sumatoria se realiza sobre los subndices repetidos sin
necesidad de utilizar el smbolo . Por ejemplo en esta convencin la (2.30 a) toma
una forma ms simple
a ik x k ci
( k 1, , n ; i 1, , m)
(2.30
a)
22

23

Si los trminos independientes en (2.27) o (2.28) son ceros, c1 c 2 c m 0 , el


sistema se llama homogneo. En este caso se verifica que cualquier solucin X del
sistema homogneo (es decir cualquier solucin homognea) es ortogonal a cada uno de
los n vectores columnas de A.
2.11.1 La reduccin de Gauss-Jordan
Trataremos de hallar soluciones de (2.27) mediante el clculo directo siguiendo un
procedimiento que se denomina reduccin de Gauss-Jordan. Suponiendo que (2.27)
tiene solucin la reduccin se lleva a cabo sigueiendo una serie de pasos.
Paso1. Supongamos que a11 0 (en caso contrario ser necesario reordenar las
ecuaciones o variables para que esto ocurra). Dividimos ambos miembros de la primera
ecuacin de (2.27) por a11 , para obtener una ecuacin equivalente
'
x1 a12
x 2 a1' n x n c1'

'
dnde a12

(2.31)

a
a12
c
, , a1' n 1n y c1' 1
a11
a11
a11

Multiplicando ambos miembros de (2.31) sucesivamente por a 21 , a 31 , , a m1 ,


obtenemos un conjunto de m-1 ecuaciones

a 21 x1 (a12' a 21 ) x2 (a1' n a 21 ) x n c1' a 21

'
'
'
a31 x1 (a12 a31 ) x2 (a1n a31 ) xn c1a31

(2.32)

a x (a ' a ) x (a ' a ) x c ' a


1n m1 n
1 m1
m1 1 12 m1 2
Entonces, mantenemos la (2.31) como primera ecuacin de un nuevo sistemma,
mientras que las ecuaciones restantes (m-1) se obtienen restando las ecuaciones
respectivas de (2.32) de la segunda, tercera, ., m-sima ecuacin del sistema (2.31),
para llegar a la forma reducida

x1 a12' x2 a1' n xn c1'

a22' x2 a2' n xn c2'

am' 2 x2 amn' xn cm'

(2.33)

donde ahora
'
'
a 22
(a 22 a12
a 21 ) , , a 2' n (a 2 n a1' n a 21 ), c 2' c 2 a 21c1'

'
'
a m' 2 ( a m 2 a12
a m1 ) , , a mn
(a mn a1' n a m1 ), c m' c m a m1c1'

23

24

'
0 (en caso contrario reordenamos las ecuaciones o las
Paso 2 Supongamos que a 22
variables para que as sea). Dividimos ambos miembros de la segunda ecuacin del
'
sistema (2.33) por a 22
, de forma tal que esta ecuacin adquiere la forma

x 2 a 23" x3 a 2" n x n c 2"


(2.34)
donde
"
a 23

'
a 23
'
a 22

"
a2
n

'
a2
'
a2

'
c2
'
a 22

"
2

La ecuacin (2.34) quedar como segunda ecuacin del nuevo sistema, pero la
utilizamos como en el Paso 1, para eliminar el coeficiente de x 2 en todas las otras
ecuaciones del sistema (2.33), multiplicando sucesivamente la (2.34) por
'
'
'
a12
, a 32
, a 42
, , a m' 2 y restamos las ecuaciones resultantes respectivamente de la
primera, tercera, cuarta, .. , m-sima ecuaciones de (2.33). El sistema (2.33) se
convierte en

x1

"
a13

"
a 33

x3

"
23

x3

x3

"
m 3

x3

(2.35)
Pasos restantes. Repetimos el proceso k veces hasta terminar, es decir hasta que k=m o
hasta que los coeficientes de todas las variables x1 , x 2 , , x n sean iguales a cero en
todas las ecuaciones siguientes a la k-sima ecuacin. Llamaremos a estas m-k
ecuaciones remanentes, cuando m>k, con el nombre de ecuaciones residuales.
Sin embargo existen dos alternativas con los resultados. En primer lugar puede ocurrir
que, siendo m>k, el miembro de la derecha de una o ms de las ecuaciones residuales
sea distinto de cero y la ecuacin (o ecuaciones) sea por consiguiente del tipo 0 c r( k ) ,
con r>k (pero en realidad c r( k ) 0 ). En este caso la suposicin previa que existe
solucin del sistema (2.27) es contradictoria y, por consiguiente no existe solucin. Se
dice que en este caso el sistema (2.27) es incompatible.
En el caso contrario, es decir que los trminos independientes de las ecuaciones
residuales sean nulos, no existe contradiccin alguna y el sistema (2.27) se reduce de m
ecuaciones a un sistema de k ecuaciones que, despus de efectuar alguna transposicin,
se puede escribir en la forma

24

25

x1 1 11 xk 1 1( n k ) x n

x2 2 21 x k 1 2( n k ) x n

(2.36)

x x
k ( nk ) xn
k k k1 k 1

donde las y las son constantes relacionadas con los coeficientes de (2.27). Como
cada unos de los pasos utilizados para reducir el sistema (2.27) al (2.36) es reversible,
se concluye que ambos sistemas son equivalentes, en el sentido que cada uno de ellos
implica al otro. En consecuencia, en este caso la solucin ms general de (2.27) expresa
cada una de las k variables x1 , x 2 , , x k como una constante ms una combinacin
lineal especfica de las restantes n-k variables, cada una de las cuales pueden tener
valores arbitrarios.
En particular, cuando k=n se obtiene una solucin nica. En caso contrario decimos que
existe una familia de n-k parmetros como soluciones. Al nmero de ecuaciones
residuales (n-k) se lo denomina defecto del sistema (2.27). Obsrvese que si el sistema
(2.27) es compatible y k <m, se pueden omitir m-k ecuaciones (aquellas que
corresponden a las ecuaciones residuales), las cuales deben estar implcitas en la
restantes k ecuaciones.
Ejemplo:
Ilustraremos la reduccin de Gauss-Jordan considerando el sistema de cuatro ecuaciones
simultneas siguiente:

x1 2 x 2 x3 2 x4 1
2x x x x 4
1 2 3 4

x1 x2 2 x3 x4 5
x1 3x2 2 x3 3x 4 3

ecuacin.1
ecuacin.2
ecuacin.3

(2.37)

ecuacin 4

Luego de dos pasos de reduccin se obtiene el siguiente sistema equivalente:

3
x1 x3
x x x 2

2
3
4

0 0

(2.38)

0 0

Por consiguiente el sistema tiene un defecto de dos. Si escribimos x3 C1 y x 4 C 2 ,


se podr expresar la solucin general del sistema en la forma
x1 3 C1 , x 2 2 C1 C 2 , x3 C1 , x 4 C 2
(2.39 a)
donde C1 y C 2 son constantes arbitrarias. Matricialmente podemos escribir esta
familia de soluciones biparamtrica en la forma

25

26

x1 3 1 0
x
2 2 1 1
1 CC 2
x3 0 1 0

x 4 0 0 1

(2.39 b)

Se deduce que las ecuaciones tercera y cuarta de (2.36) no son independientes. En


efecto la ecuacin 3=ecuacin 2 ecuacin 1; mientras que ecuacin 4=
(ecuacin1)-

5
3

1
(ecuacin 1).
3

2.12 Teorema de Cramer


Si A es una matriz real y cuadrada de orden n que adems es no-singular, entonces el
sistema AX=C (2.29) admite una nica solucin, y el valor de cada variable
x1 , x 2 , , x n estar dado por el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la
columna de los trminos independientes, y el determinante del sistema.
26

27
Sea el sistema dado por la (2.29)
A X=C
Como A es no-singular, premultiplicamos por su inversa

(2.40)

A-1 (AX)= A-1C


Entonces, asociando
(A-1 A)X= A-1C
IX= A-1C
Por lo tanto
X= A-1C
es la nica solucin del sistema (2.29)
Como det(A) 0, por la propiedad 7, las n columnas de A son linealmente
independientes, pueden ser vistos como n vectores linealmente independientes en el
espacio R n y conformar una base del mismo. Es decir, haciendo uso de la notacin
utilizada en (2.20) para vectores

A=( A1 A2 An )

donde cada

Ak

a1k
a
2k

con k=1,, n son vectores


ank
columnas de R n

Por consiguiente cualquiera que sea el vector C R n (o C


x1 , x 2 , , x n , nicos, tales que
n

C= xi Ai

con

i 1

R n), existen escalares

xi R n

entonces

det A1 A 2 C An

xj
det( A)

donde C ocupa el lugar de la

columna j.
En efecto:
n

det( A1 A2 C An )=det( A1 A2 xi Ai An )=
i 1

= x1 det( A1 A2 A1 An )+ x 2 det( A1 A2 A2 An )+
+ x j det( A1 A2 A j An )++ x n det( A1 A2 An An )= x j det(A)
Por la propiedad 5 el nico trmino distinto de cero es el correspondiente a x j .
Luego

det A1 A 2 C An

xj
det( A)

27

28

Cuando el determinante de la matriz A es distinto de cero, el sistema de ecuaciones


(2.40) tiene una solucin nica. El valor de cualquier x j puede ser expresado como el
cociente entre dos determinantes, siendo el denominador el determinante de la matriz
de los coeficientes y el numerador el determinante de la matriz obtenida al reemplazar
la columna de los coeficientes de x j de la matriz de coeficientes por la columna de los
miembros de la derecha.
Decimos que el sistema de ecuaciones es homogneo cuando todos los miembros de la
derecha, ci , son iguales a cero. En este caso, evidentemente una solucin ser la
solucin trivial, x1 , x 2 , , x n 0 . El resultado anterior nos indica que est es la nica
solucin posible cuando det(A) 0 , de forma tal que un conjunto de n ecuaciones con n
incgnitas no puede tener una solucin distinta de la trivial a menos que el
determinante de la matriz de coeficientes sea nulo.

2.13 Ecuaciones lineales y espacio vectorial


Veremos ahora la interpretacin de los resultados bsicos de la Seccin (2.11),
correspondientes a un sistema de m ecuaciones algebraicas con n incgnitas, en base a
la terminologa utilizada en la Seccin 2.10. Sea un sistema de ecuaciones como el
visto en (2.27)

a11 x1 a12 x 2 a1n xn c1


a x a x a x c
21 1 22 2
2n n
2


a m1 x1 am 2 x 2 a mn x n c m

(2.27)

Que puede ser escrito en la forma (2.28)

x1 c1
a a ....... a
a a ....... a x c

2 2


a a ....... a

xn c n
11 12

1n

21

22

2n

m1

m2

mn

28

(2.28)

29
En notacin matricial en la forma (2.29)
A X=C
(1.29)
De esta forma podemos interpretar cada una de las ecuaciones (2.27) como el producto
escalar de dos vectores

2.13 Autovalores y autovectores


Para una matriz cuadrada A, un problema que surge frecuentemente en la prctica es el
de determinar los valores de cierta constante ( ) para los cuales un sistema de la
forma
AE1= E1

donde es un escalar

A=

a11 a12 ....... a1n


a a ....... a
21 22 2n

(2.41 a)

E1=

e1
e
2

en

an1 an2 ....... ann

tenga soluciones no triviales. Es decir, que el sistema homogneo de la forma

a11 (e1 e1 ) a12 e2 a1n en 0


a e a (e e ) a e 0
21 1 22 2 2
2n n


a m1e1 am 2 e2 amn (en en ) 0

(2.41 b)

tenga soluciones no trivales. Los valores de para los cuales el sistema (2.32 a o b)
tiene soluciones no triviales se denominan autovalores o valores caractersticos de la
matriz A. En muchos de ls casos que se presentan en la prctica, la matriz A es real y
simtrica, de manera tal que
a ij a ji
(2.42)
O en una forma ms general, cuando los coeficientes de A son complejos los casos ms
importantes son aquellos en que los elementos simtricos, respecto a la diagonal
principal, son complejos conjugados. Es decir que A es una matriz hermtica
a ij a ji
(2.43)
Nos limitaremos al estudio del caso de matrices reales.
La ecuacin (2.41 b) tendr soluciones no triviales si y slo si
29

30

a11 a12 a1n


a a a
21
22
2n
det
=0

a n1 an2 ann

(2.44)

que no es otra cosa que una ecuacin polinmica de grado n para la incgnita . A
cada autovalor le corresponder una solucin X 0 , es decir una solucin no trivial, que
se denominar autovector o vector caracterstico. La ecuacin (2.44) tambin puede
escribirse en la forma
det(A- I )=0
(2.44
a)
y se la denomina ecuacin caracterstica. Las n soluciones, 1 , 2 , , n no
necesariamente deben ser todas diferentes.
Sean 1 y 2 , dos autovalores diferentes de la matriz A y E1 y E2 los autovectores
respectivos. En consecuencia se satisface el siguiente par de ecuaciones
A E1= 1 E1
(2.45 a)
A E2= 2 E2
(2.45 b)
con ( 1 2 )
Si postmultplicamos la transpuesta de (2.44 a) por E2 obtenemos
(A E1)TE2= 1 ( E1)T E2

(2.46)

La propiedad vista en la Seccin (2.4) ((AB)T=BTAT)


( E1)TAT E2= 1 ( E1)T E2

(2.47)

Premultiplicando la (1.45 b) por (E1)T obtenemos


(E1)T A E2= 2 (E1)T E2

(2.48)

Como en el caso de una matriz simtrica AT=A, el resultado de restar (2.47) de (2.48)
es:
( 2 1 ) (E1)T E2=0
(2.49)
Dado que habamos supuesto que 1 2 , se concluye que E1 y E2 son ortogonales.
Dos autovectores de una matriz simtrica y real que corresponden a autovalores
diferentes son ortogonales.

30

31
Un segundo resultado muy importante es que los autovalores de una matriz real y
simtrica son siempre reales. Para demostrarlo supondremos que 1 i (con

y R ) es una raz de (2.44). Si

E1 es el autovector caracterstico, tendremos

A E1= 1 E1
y, por consiguiente el conjugado de dicha ecuacin es:
A E 1 1 E 1
Pues A es real y el conjugado del producto es el producto de los conjugados. Si
premultiplicamos la primera ecuacin por ( E 1 ) T y postmultiplicamos la traspuesta de
la segunda ecuacin por X1, obtendremos
( 1 1 ) ( E 1 ) T E1 = ( E 1 ) T A E1 -(A E 1 ) T E1 =0
(2.50)
Dado que el producto ( E 1 ) T E1 es una cantidad positiva ( long 2 (E1)), se deduce que (
1 1 )= 2i debe ser nulo, en consecuencia 0 . Es decir que 1 R. Todos los
autovalores de una matriz simtrica y real son reales. Es sencillo comprobar a partir de
este resultado que todos los autovectores de una matriz real y simtrica tambin son
reales.
2.14 Reduccin de una matriz a su forma diagonal
Una expresin de segundo grado de la forma
2
2
2
Z a11 x1 a 22 x 2 a nn x n 2a12 x1 x 2 2a13 x1 x3 2a ( n 1) n x n 1 x n

(2.51)
Se denomina una forma cuadrtica de x1 , x 2 , , x n . Supondremos que a ij y xi
R. Geomtricamente en un espacio R2 la ecuacin Z=constante representa una curva d
segundo grado (cnica) con centro en el origen, mientras que en R3 Z=constante
representa una superficie cudrica con centro en el origen. Muchos problemas en que
intervienen estas ecuaciones estn ntimamente relacionados con sistemas de ecuaciones
lineales.
Observemos en primer lugar que si escribimos
yi

1 Z
2 xi

(i 1, 2 , , n)

obtendremos el sistema

a11 x1 a12 x2 a1n xn y1


a x a x a x y
21 1 22 2
2n n
2


a m1 x1 a m 2 x2 a mn xn y m

(2.52)

Tambin podemos escribir este sistema de ecuaciones en la forma


ZX=Y

(2.53)

31

32
donde es una matriz real y simtrica Z ( z ij z ji ), y

X=

x1
x
2

Y=

a11 x1 a12 x2 a1n xn


a x a x a x
2n n
21 1 22 2

a1n x1 a2n x2 ann xn

xn

(2.54)
Es sencillo apreciar que la forma cuadrtica (2.50) es equivalente a la relacin
Z XTY

(2.55)
En consecuencia podemos escribir la (2.50) en la forma
Z XT Z X

(2.56)

En muchos casos es conveniente expresar x1 , x 2 , , x n como combinaciones


lineales de nuevas variables x '1 , x ' 2 , , x' n de forma tal que Z quede reducida a una
combinacin lineal solamente de cuadrados de las nuevas variables, es decir
eliminndose cualquier trmino con productos cruzados ( x ' i x' j ) . Esta nueva forma se
denomina forma cannica. Expresaremos el vector X en trminos de X mediante la
ecuacin
X=Q X
(2.57)
donde Q es una matriz cuadrada de orden n. Al introducir (2.57) en (2.56) obtendremos
Z=(QX)TA Q X=(X)TQTA Q X

(2.58)

Z= (X)TZ X

(2.59)

o
donde la nueva matriz Z est definida por la relacin
Z=QT Z Q

(2.60)

Es decir, que si Z debe involucrar nicamente cuadrados de las variables x' i ,


tendremos que elegir la matriz Q en (2.57) de forma tal que QT Z Q sea una matriz
diagonal, es decir, una matriz en la que todos los elementos con i j sean nulos.
Demostraremos que es muy sencillo formar una matriz Q con esta propiedad si
conocemos los autovalores y los correspondientes autovectores de la matriz real y
simtrica. Sea A una matriz general, real y simtrica,, con los autovalores
1 , 2 , , n , donde an cuando haya posibles races repetidas de la ecuacin
caracterstica (1.44 o 2.44a) todas llevan subndices diferentes. El conjunto de los
correspondientes autovectores ser E1 E2 . En (que supondremos unitarios, es decir
32

33
normalizados de forma tal que long 2 (E1)=1). Entonces podemos escribir las siguientes
relaciones
A E1= 1 E1 ,

A E2= 2 E2 , , A En = n En

(2.61)
Formamos una matriz Q donde los autovectores representan columnas de dicha matriz
E1 E 2 E n

Q=[E1 E2 . En]=

e11 e12 e1n


e e e
21 22 2n

(2.62)

en1 en2 enn


Entonces utilizando las relaciones (2.61), vemos fcilmente que

AQ=

1e11 2e12 n e1n


e e e
1 21 2 22 n 2n

(2.63)

1en1 2 en2 n enn


o

1 0 0

AQ=Q . 0 0
2
n

(2.64)

Esta ltima relacin se deduce en forma directa con slo observar que el producto de A
por la k-sima columna de Q es la k-sima columna del miembro de la derecha de
(2.63). Como los vectores E1 E2 . En son linealmente independientes, es evidente que
det(Q) 0 . Por consiguiente existir inversa, Q-1, y premultiplicando ambos miembros
en (2.64) por Q-1 obtendremos

33

34

1 0 0

Q A Q= 0 0 =
2
n
-1

ij

(i 1, 2 , , n)

(2.65)

De esta forma se ha diagonalizado la matriz A mediante las operaciones indicadas,


siendo los elementos diagonales los correspondientes autovalores.
Sin embargo existen ciertas propiedades de la matriz Q que es necesario destacar por su
utilidad.
En primer lugar
QT=Q-1
o
QTQ=I
(2.66)
El trmino caracterstico del producto QTQ es de la forma:
n

p ij eki ekj

(2.67)

k 1

donde

e1 j

e2 j

E=


enj
j

y, como los E1 E2 . En son ortogonales las sumatorias en (2.67) se anulan excepto


cuando i j , en cuyo caso son iguales a la unidad pues los autovectores son unitarios.
Entonces deducimos que pij ij es decir que QTQ=I.
Adems, puesto que det(Q)=det(QT), la (1.65) nos permite obtener un resultado muy
til
(det(Q))2=1
lo que implica que
det(Q)= 1
(2.68)
En resumen, dedujimos que la matriz Q definida por (2.61) tiene la propiedad de que la
forma cuadrtica:
A=XTA X
(2.69)
se reduce mediante el siguiente cambio de variables:
X=Q X

(2.70)

a la forma:
A=(X)TA X

donde
34

A= i ij

35
es decir, a la forma:
A= 1 ( x1' ) 2 2 ( x 2' ) 2 n ( x n' ) 2
donde los nmeros i son los autovalores de la matriz A.

(2.71)

2.15 Kernel o espacio nulo


En matemticas la palabra kernel tiene distintos significados. En particular en lgebra
lineal se define el Kernel o espacio nulo de una matriz A, de dimensiones m n , al

conjunto de vectores x para los cuales se satisface que A x =0.


Formalmente:

Kernel(A) or Null(A) = x R : A x 0
(2.72)

donde 0 representa el vector nulo con m componentes (que por simplicidad notaremos
como 0 ). El espacio nulo ser un subespacio lineal y Euclideo de dimensiones n-1.

La ecuacin matricial A x =0 es equivalente al sistema de ecuaciones lineales


homogneo

a11 x1 a12 x2 a1n xn 0

Ax =0

a21 x2 a22 x2 a2 n xn 0

(2.73)

a x a x a a 0
mn n
m1 1 m 2 2

Desde este punto de vista, el espacio nulo de la matriz A es el conformado por el


conjunto de soluciones del sistema homogneo (2.73).
Ejemplo:

Consideremos la matriz A=

235
4 2 3

. El espacio nulo de esta matriz consistir del

conjunto de vectores ( x, y , z ) R 3 para los cuales se satisface

35

36

x 0
235
y 0
4 2 3
z 0
Lo anterior puede ser escrito como un sistema homogneo de ecuaciones lineales que
involucran a x, y y z.
2x 3 y 5z 0

4 x 2 y 3z 0

Fcilmente obtenemos como soluciones

x 0.0625 z
y 1.625 z

Ahora podemos escribir el espacio nulo (soluciones de A x =0) en trminos de z (que es


nuestra variable libre), como

0.625
1.625
1

donde

es un escalar

El espacio nulo de A es precisamente una recta que pasa por el origen en R3.
2.15.1 Propiedades del espacio nulo
Hemos mencionado que el espacio nulo de una matriz de dimensiones m n es un
subespacio de R n . Entonces, el subconjunto Null(A) tendr las siguientes propiedades,
propias de un espacio vectorial:
1. Null(A) siempre contendr l vector cero

36

37

Esto se prueba muy fcilmente porque A 0 0 0 Null ( A)

2. Si x e y Null ( A) x y Null ( A)

Sencillamente si x Null ( A) e y Null ( A) A x 0 y A

consecuencia A ( x y ) A x A y 0 0 0

= 0 . En

3. Si A x 0 y b es un escalar, entonces b x Null ( A)

A(b x ) b A x b 0 0

2.15.2 Ecuaciones no-homogneas


El espacio nulo juega un papel muy importante en la solucin de sistemas nohomogneos de ecuaciones lineales. Sea el siguiente caso:

a11 x1 a12 x2 a1 n xn c1

a21 x2 a 22 x2 a2 n xn c2

Ax c

(2.74)

a x a x a a c
mn n
m
m1 1 m 2 2
Si

u y v

son dos posibles soluciones de (2.74), entonces

A (u v ) A u A v c c 0
(2.75)

Entonces, la diferencia de dos soluciones de la ecuacin A x c , es un elemento de

Null(A). En base a lo anterior, vemos que cualquier solucin de la ecuacin A x c

puede ser expresad como la suma de una solucin particular de (2.75), digamos v , y un
elemento cualquiera del espacio Null(A). Formalmente decimos que el conjunto de

soluciones de la ecuacin A x c es v x : x Null ( A) , donde v es una solucin


particular de (2.75). Geomtricamente se puede interpretar como que el conjunto de

soluciones de A x c consiste en la traslacin del espacio Null(A) por un vector v .


De una forma simular podemos definir el espacio nulo de una transformacin. Si V y W
son espacios vectoriales, el espacio nulo (o kernel) de una transformacin lineal T:V
W es el conjunto de todos los vectores en V que cuya transformacin es cero. Es decir:

kernel(T)= v V : T ( v ) 0
(2.76)
Si representamos la transformacin lineal por una matriz, entonces el kernel de la
transformacin es precisamente el espacio nulo de la matriz.

Ejercicios:
1.r) Resolver el sistema de ecuaciones

37

38

3x1 2 x2 2 x3 10

x1 2 x2 3x3 1
4x x 2x 3
3
1 2
por el mtodo de Cramer
1.s) Resolver por el mtodo de Cramer

2 x1 5 x2 3x3 3

x1 2 x2 x3 2
7 x 4 x 3x 12
2
3
1

1.t) Para qu valores de k ocurre que el sistema siguiente tiene soluciones triviales?

2 x ky z 0

(k 1) x y 2 z 0

4x y 4z 0

1.u) Encontrar los autovalores de la matriz

5 7 5

A= 0 4 1

2 8 3
1.v) a) Encontrar los autovectores que correspondan a los autovalores de la matriz A del
problema (1.u)
b) Determinar un conjunto de autovectores unitarios.
1.w) Encontrar los autovalores y autovectores de la matriz

A=

cos sen
sen cos

Bibliografa recomendada

38

39
Arfken G.: Mathematical methods for physicists, Academia Press, New Cork, 1970, 815
pp.
Byron F. W. and R. W. Fuller: Mathematical of classical and quantum physics, Vol. I,
Addison-Wesley Publishing Co., Reading, 1969, 310 pp.
Cotlar M. y C. R de Sadosky: Introduccin al Algebra, Editorial Universitaria de
Buenos Aires, Buenos Aires , 1962, 216 pg.
Hildebrand F. B.: Mtodos de la matemtica aplicada, Editorial Universitaria de Buenos
Aires, Buenos Aires, 1973, 465 pg.
Pearson C.E.: Handbook of applied mathematiccs, Van Nostrand Rinhold Co., New
York, 1974, 1265 pp.
Rojo A.O.: Algebra II, El Ateneo, Buenos Aires, 1973, 395 pg..
Spiegel M. R. Matemticas superiores para ingenieros y cientficos, Serie de
Compendios Schaum, McGraw Hill, Mxico 1971, 415 pp.

39

Potrebbero piacerti anche