Sei sulla pagina 1di 18

VALORES PROPIOS

Y
VECTORES PROPIOS
INTRODUCCION.
Los valores y vectores propios se conocen tambin como eigen valores y eigen vectores las
mismas que se utilizan en las matrices homogneas aplicadas en ingeniera.
Una matriz homognea Ax=0.
Los problemas en los que ms se encuentra este tipo de solucin, son en los problemas
dinmicos.
DEFINICION.
En lgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal
son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un
mltiplo escalar de s mismos, con lo que no cambian su direccin. Este escalar recibe el
nombre valor propio, autovalor, valor caracterstico o eigenvalor. A menudo, una
transformacin queda completamente determinada por sus vectores propios y valores
propios. Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios
con un valor propio comn.
Sea V un espacio vectorial sobre el cuerpo F y sea T un operador lineal sobre V. Un valor
propio de T es un escalar c de F tal que existe un vector no nulo con T = c . Si c es
un valor propio de T; entonces:
a) Cualquier tal que T =c se llama un vector propio de T asociado al valor propio c;
b) La coleccin de todos los tales que T =c se llama espacio propio asociado a c.
El numero ser un valor propio de A, con un vector propio correspondiente distinto de
cero, si y solo si
det(A- I)=0
Esta es la ecuacin caracterstica para la matriz A.
Las transformaciones lineales y los vectores propios
Las transformaciones lineales del espacio como la rotacin, la reflexin, el
ensanchamiento, o cualquier combinacin de las anteriores; en esta lista podran incluirse
otras transformaciones pueden interpretarse mediante el efecto que producen en los
vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando
en una direccin y sentido determinados.
Los vectores propios de las transformaciones lineales son vectores que, o no se ven
afectados por la transformacin o se ven multiplicados por un escalar que no vara
su direccin.
El valor propio de un vector propio es el factor de escala por el que ha sido
multiplicado.
Un espacio propio es un espacio formado por todos los vectores propios del mismo
valor propio, adems del vector nulo, que no es un vector propio.
La multiplicidad geomtrica de un valor propio es la dimensin del espacio propio
asociado.
El espectro de una transformacin en espacios vectoriales finitos es el conjunto de
todos sus valores propios.
Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si
A: V V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de
cero en V y c es un escalar (posiblemente cero) tales que

Entonces decimos que v es un vector propio del operador A, y su valor propio asociado es
c. Observe que si v es un vector propio con el valor propio c entonces cualquier mltiplo
diferente de cero de v es tambin un vector propio con el valor propio c. De hecho, todos
los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de
V, el espacio propio para el valor propio c.
Ecuacin del valor propio o autovalor
Matemticamente, v

es un vector propio y el valor propio correspondiente de una


transformacin T si verifica la ecuacin:

Donde T(v

) es el vector obtenido al aplicar la transformacin T a v

.
Supngase que T es una transformacin lineal (lo que significa que
para todos los escalares a, b, y los vectores v, w).
Considrese una base en ese espacio vectorial. Entonces, T y v

pueden representarse en
relacin a esa base mediante una matriz A
T
y un vector columna v

un vector vertical
unidimensional. La ecuacin de valor propio en esta representacin matricial se
representa de la siguiente forma:

Modelo Grfico
A travs de la siguiente figura 2 y figura 3, veamos las diferencias de la ecuacin 1 y de la
ecuacin 2.

Figura 2: Representa la ecuacin 1, Ax=b A
x b.
Si v v es un eigenvector de A A, entonces solo su longitud cambia. Vase figura 3 y note
que la longitud de nuestro vector esta simplemente escalada por una variable , llamada
eigenvalor:

Figura 3: Representa la ecuacin 2, Av=v
A v v .
Nota:
Cuando tratamos con una matriz A A, los eigenvectores son los vectores posibles ms
simples para trabajar.









Teorema de la Matriz Invertible.
Sea A una matriz de n x n. Entonces A es invertible si y solo si
El numero 0 no es un valor propio de A



Calculo de valores y vectores propios
Sea A una matriz de n x n con el valor propio y su correspondiente vector propio x.
Por lo tanto Ax= x esta ecuacin se escribe como

Lo que nos da

Diagonalizacin.
Para definir de otra forma tenemos que plantear 2 problemas.
Problema 1(Forma Matricial).Dada una matriz cuadrada A, existe una matriz inversible P
tal que P
-1
AP sea diagonal?
Problema 2(Forma Matricial). Dada una matriz cuadrada A, hay una matriz ortogonal P
tal que P
-1
AP(=P
t
AP) sea diagonal?
Estos problemas sugieren las definiciones que siguen.
Definicion. Una matriz A=n x n es diagonizable si A es semejante a una matriz diagonal.
Es decir, A es diagonizable si existe una matriz invertible P tal que

Sea diagonal; se dice que la matriz P diagonaliza a A
El teorema que se da a continuacin e s la herramienta bsica en el estudio de la
diagonalizabilidad; su demostracin revela la tcnica para diagonalizar una matriz.
Teorema. Si A es una matriz de n x n, entonces las proposiciones que siguen son
equivalentes:

Demostracion a) b) dado que se supone que A es diagonalizable, existe una matriz inversible

Tal que P
-1
AP es diagonal, por Ejemplo P
-1
AP=D en donde

Por tanto AP=PD es decir

Si ahora se denotan los vectores columna de P por P1,P2..Pn, entonces por el teorema
las columnas sucesivas de AP son Entonces se debe tener

Supuesto que P es invertible, no todos sus vectores columna son cero; por tanto,
son Eigenvalores de A y P
1
,P
2,.,
Pn son eigen vectores correspondientes.
Ya que P es inversible, se deduce que son linealmente
independientes. Por tanto, A tiene n Eigenvectores linealmente independientes
Matrices Simetricas. Se dice que dos matrices A y B de n x n son semejantes si existe una
matriz invertible C de n x n tal que


(1) La funcin definida por (1) que lleva la matriz A en la matriz B se llama transformacin
de semejanza. Se puede escribir esta transformacin lineal como
T(A) = C1AC
Nota. C1 (A1 + A2)C = C1A1C + C1A2C y C1("A)C = "C1AC de manera que la funcin
definida por
(1) es, de hecho, una transformacin lineal.
Nota. Suponga que B = C1 AC. Entonces al multiplicar por la izquierda por C, se obtiene
CB = CC1 AC, o
sea CB = AC
(2) La ecuacin (2) con frecuencia se toma como una definicin alternativa de semejanza:
Diagonalizacion ortogonal
Una matriz diremos que es ortogonal si su traspuesta coincide con su inversa. Si resulta
que decir que es ortogonal, es equivalente a decir que los vectores son ortonormales
respecto al producto escalar habitual) Para las matrices reales y simtricas podemos dar
una diagonalizacin donde la matriz de paso es ortogonal.
Se verifican las siguientes propiedades:
a) Si los coeficientes de la matriz son nmeros reales, sus valores propios son siempre
nmeros reales.
b) Los vectores propios asociados a valores propios distintos son siempre ortogonales.
c) Si normalizamos los vectores propios ortogonales, los vectores obtenidos son normales.
Una base con vectores propios ortonormales da lugar a una matriz de cambio de base
ortogonal de modo que se satisface PtAP=D. Siendo D una matriz diagonal semejante a A.
Las matrices simtricas son siempre diagonalizables como consecuencia del teorema de
Schur. En la prctica para diagonalizar una matriz simtrica mediante una transformacin
ortogonal desarrollaremos el siguiente proceso:
1. Calculamos sus valores propios. Si son todos distintos, tomamos un vector propio por
cada valor, la base as formada tiene la particularidad de ser ortogonal.
2. Normalizamos los vectores de la base anteriormente calculada, para ello dividimos las
coordenadas de cada vector por su mdulo.
3. Disponemos los vectores de la base obtenida en el paso anterior como las columnas de
una matriz que ser la matriz de paso ortogonal. Como hemos comentado anteriormente,
los elementos de la diagonal principal de D son los valores propios de A.
Si los valores propios no son de orden de multiplicidad uno, los vectores elegidos para
cada valor propio pueden resultar no ser ortogonales, en tal caso hay que sustituir la base
elegida por una base ortogonal, lo que se conseguir por el mtodo de ortogonalizacin
de Grand-Smith, despus se normalizarn los vectores y se proceder como antes.Esto es
lo que se entiende por diagonalizacin ortogonal.
Observaciones:
1) No todas las matrices tienen forma diagonal.
2) Si una matriz tiene todos sus n valores propios distintos tiene n vectores propios LI y
por lo tanto tiene forma diagonal.
3) Si una matriz tiene valores propios repetidos puede y no tener forma diagonal.
4) Toda matriz tiene una forma diagonal por bloques llamada Forma de Jordan.
5) Una matriz simtrica tiene valores propios reales
y vectores propios ortogonales que siempre se pueden convertir en ortogonales para
formar una matriz diagonalizante
T tal que T-1 = Tt (Una matriz que cumple esta propiedad se llama matriz ortogonal)
6) De acuerdo a lo anterior, una matriz simtrica A se puede diagonalizar mediante la
transformacin:
D = T
t
AT
Potencias De Matrices. Ecuaciones en Diferencias
Una primera aplicacin a la diagonalizacin de una matriz es que se puede fcilmente
encontrar la pontencia nsima de una matriz. Supongamos que la matriz A se ha
diagonalizado y por lo tanto podemos decir que
El resultado de elevar A
2
es:

el producto de una matriz por su inversa es la matriz identidad, es decir:

entonces:

El resultado de elevar A
3
es:

el producto de una matriz por su inversa es la matriz identidad, es decir:

entonces:

Entonces por induccin podemos concluir que:

y la matriz D
n
se puede encontrar fcilmente. A continuacin se muestra el clculo de la
potencia de matrices diagonales.
Ecuaciones en Diferencia.
Los sistemas de ecuaciones en diferencias intentan simular un fenmeno en un modo
discreto (esto es como verlo a intervalos iguales de tiempo). Esto es coherente con la
realidad, ya que normalmente se toman una serie de medidas espaciadas en el tiempo,
una vez al da, o por semana, o al mes por ejemplo (siempre a la misma hora si confiamos
en que nos sirva para detectar un patrn). Como se relacionan esa sucesin de valores?
Podra servirnos un modelo lineal. Consideremos el siguiente ejemplo:

Ejemplo 1. En un gran parque nacional existen dos grupos principales de animales: zorros
y conejos. Modelos que predigan su comportamiento pueden ayudar a prevenir futuras
explosiones de una u otra poblacion, que seran perjudiciales para el parque en si. Tras
unas primeras muestras se ha considerado el siguiente modelo lineal (recuerda que
podemos expresarlo matricialmente, como en el Tema 3) sobre la evolucion de ambas
poblaciones (la unidad de tiempo son dos meses, acorde al ciclo reproductor de ambas
especies):



Para 40 conejos y 7 zorros inicialmente, la prediccion de la evolucion del conjunto en los
nueve periodos posteriores es:

El modelo nos dice que introducidos en esa proporcion inicial, ambas especies
aumentaran en el parque3. Como calculamos dicha evolucion? Llamamos A a la matriz


y simplemente


Definicion 2. Sea A una matriz cuadrada de orden p y sea u1, u2, . . . , un, . . . una
sucesion de vectores en R
p
definidos de manera recurrente por

a partir de un vector inicial u0 2 R
p
. Una relacion de recurrencia de esta forma se llama
sistema de ecuaciones en diferencias lineal y homogeneo

Matrices Unitarias.-
Es una matriz cuadrada de orden n tal que todos los elementos de su diagonal principal
son uno y los elementos fuera de ella son cero.




Matriz hermitiana
Se dice que una matriz de nmeros complejos cuadrada es hermitiana, denotada como A
t
,
si es igual a su propia transpuesta conjugada:



Matrices normales

Una matriz es normal si es decir si A conmuta con su
adjunta.

Definicin.
Si es unitariamente equivalente a una matriz diagonal, entonces se dice
que A es unitariamente diagonalizable.


Si A = tiene autovalores, las siguientes

Condiciones son equivalentes:



Aplicaciones
Crecimiento de una Poblacin
MODELOS DISCRETOS MATRICIALES
El numero de miembros de una poblacin dependiendo la clase esta representado por un
vector distribucin de caractersticas, tambin se pretende mostrar un ejemplo sencillo de
cmo utilizar mtodos matemticos de tipo espectral para modelizar el crecimiento de la
poblacin


Formas cuadrticas

Utilizando la notacin de los vectores (x,y), en la forma x como vectores columna,
estudiaremos las expresiones de la forma: y

X
T
Ax , en donde A es una matriz simtrica.

1 2
Veamos un ejemplo: Si A = , la forma cuadrtica sera
2 -2

1 2 x x + 2y
x
T
Ax = x y = x y = (x
2
+ 2xy + 2xy -2y
2
) = x
2
+ 4xy - 2y
2

2 -2 y 2x 2y

en donde se aplica la constumbre de no distinguir las matrices de orden 1, de los escalares
cuando ello no se presta a confusin como en este caso. La forma cuadrtica termina
siendo una forma algebraica en x e y.
x
Ntese que nos hemos tomado la libertad de hablar de la componente x del vector x = y

Cuando hablamos de la forma cuadrtica x
T
Ax, nos referimos al vector x con dos
componentes, una de las cuales lleva desafortunadamente el mismo nombre.

Como x
T
Ax es una matriz de orden 1, concluimos que

(x
T
Ax)
T
= x
T
Ax. Adems (x
T
Ax)
T
= x
T
A
T
(x
T
)
T
= x
T
A
T
x .

Por lo tanto, si B = (1/2)(A+ A
T
) , entonces B es una matriz simtrica y
adems

x
T
A

x = x
T
B

x

o sea que la matriz B, simtrica, produce la misma forma cuadrtica.

Por ello no se pierde generalidad cuando se estudian las formas cuadrticas de matrices
simtricas.

Igualando a 1 la forma cuadrtica obtenida en el ejemplo, arribamos a la expresin:

x
2
+ 4xy - 2y
2
= 1

La expresin anterior es la ecuacin de una cnica ( elipses, hiprbolas, par de rectas
paralelas u otros casos degenerados). C omo veremos, el trmino en xy aparece en la
ecuacin anterior porque la cnica est rotada, respecto al eje de coordenadas XY, como
se ilustra en el grfico siguiente, tomando como ejemplo una elipse.

Y Y

X

X

Queremos determinar la rotacin de tal manera que la ecuacin de la cnica en su
nuevo eje X-Y carezca de trmino en xy, o sea que tenga la forma:

a x
2
+ b y
2
= 1.
De la introduccin a las matrices de rotacin recordemos que la relacin entre (x , y) y (x
, y ) est dada por

x = R

x
y y
Donde R

es la matriz ortogonal de rotacin.

La forma cuadrtica x
T
A

x se transformara en este caso en

(1) (R

x)

T
A R

x = (x)
T
R

T
A R

x = (x)
T
D

x ,

Llamando D a la nueva matriz D = R

T
A R
.

D es todava simtrica: basta probar D
T
= (R

T
A R

)

T
= R

T
A
T
( R

T
)
T
= R

T
A R

= D,

Ya que A es una matriz simtrica, es decir A

T
= A.

Adems, la nica manera de que aparezcan en la nueva forma cuadrtica solo los trminos
en
x
2
e y
2
y n terminos en x y es que la matriz sea diagonal, es decir con ceros fuera
de la diagonal principal. (probar esto es un buen ejercicio).

Nuestro trabajo, para hallar consiste, en el caso del ejemplo en:

a ) Calcular R

T
A R
.

b) Determinar tal que la matriz anterior sea diagonal
c) Dar la nueva ecuacin del lugar geomtrico, en su nuevo eje cannico(sin
trmino en xy).

R

T
A R

= cos sen 1 2 cos - sen


sen cos 2 -2 sen cos

cos + 2 sen 2 cos -2 sen cos - sen =
-sen + 2cos -2 sen -2 cos sen cos

cos
2
+ 2 sen cos

+ 2 cos

sen - 2 sen
2
- sen cos

- 2 sen
2
+ 2 cos
2
- 2 sen
cos


- sen cos

- 2 sen
2
+ 2 cos
2
- 2 sen cos

sen
2
- 2 sen cos

- 2 cos
2
- 2 sen
cos



cos
2
+ 4 sen cos

- 2 sen
2
2 cos
2
- 2 sen
2
- 3 sen cos


2 cos
2
- 2 sen
2
- 3 sen cos

sen
2
- 4 sen cos

- 2 cos
2


Para que la matriz sea diagonal debemos tener que

2 cos
2
- 2 sen
2
- 3 sen cos

= 0

Es claro que 90, por lo tanto cos

0. Podemos por lo tanto dividir la ecuacin
anterior por cos
2
, resultando:
- 2 tan
2
- 3 tan + 2 = 0.

Sustituyendo u = tan , debemos resolver

- 2 u
2
3u +2 = 0

De donde salen las soluciones
u
1
= u
2
= -2
o sea
tan = o tan = -2

Tomaremos tan = . Luego = tan
-1
( ) = arctan ()

Por lo tanto 0, 4636 radianes.

En este nuevo eje XY que est rotado aproximadamente 0, 4636 radianes 26 , la
forma cuadrtica se expresa de acuerdo al argumento que sigue, recordando que la
nueva matriz es diagonal y que basta calcular las entradas en las posiciones 1,1 y 2,2
de la matriz anterior.

Como tan = . Podemos calcular sen y cos a partir de la siguiente figura

5
1
2

Luego sen = 5 / 5 cos = 25 / 5

De ah concluimos que 4/5 + 8/5 2/5 0
R

T
A R

=

0 1/5 8/5 8/5



= 2 0 = D
0 -3

y adems que
cos - sen 25 / 5 -5 / 5
R

= =
sen cos 5 / 5 25 / 5

La forma cuadrtica original

1 2 x x + 2y
x
T
Ax = x y = x y = (x
2
+ 2xy + 2xy -2y
2
) = x
2
+ 4xy - 2y
2

,
2 -2 y 2x 2y

se transforma en


2 0 x 2x
x
T
Ax = x y = x y = ( 2x
2
3y
2
)

= 2x
2
3y
2

0 -3 y - 3y

La expresin del lugar geomtrico en X-Y

(*) x
T
Ax = 1 o su expresin equivalente x
2
+ 4xy - 2y
2
= 1, se ha transformado
en
x
T
Ax = 1 2x
2
3y
2
= 1 en el eje rotado un
ngulo

La matriz 1 2 2 0
(**) A = se ha diagonalizado como D =
2 -2 0 -3
Por medio de la transformacin ortogonal semejante

(**) R

T
A R

= D


BIBLIOGRAFIA
Algebra lineal y sus aplicaciones Strang , edicin tercera
Algebra lineal Kennet Hoffman
Algebra lineal de Juan de Burgos
Algebra lineal de Kolman
Algebra lineal de Larson
ENLACES
www.Universidad de Concepcin_ Chilln_ Chile.com-/MODELOS DISCRETOS
MATRICIALES
http://www.ma1.upc.edu/_rafael/al/diagonalizacion.pdf

Potrebbero piacerti anche