Sei sulla pagina 1di 21

Valores y Vectores Propios

17-Mayo-2011 1/22
Enfoque General

„ λ es autovalor de la matriz A de autovector asociado v


si se tiene A v = λ v. Los autovalores λ son raíces del
polinomio característico P(λ)=det(A-λI).

„ Una matriz A en Rn×n tiene n autovalores reales o


complejos. Matrices Hermíticas y matrices Simétricas
tienen todos sus autovalores reales.

„ Si existen n autovectores LI la matriz se dice


diagonalizable.

17-Mayo-2011 2/22
Enfoque General

„EL CASO GENERAL ES UN PROBLEMA DE GRAN


COMPLEJIDAD.

„Existen bibliotecas de funciones adecuadas a


distintas estructuras de matriz para distintos lenguajes
de alto nivel.

„A su vez, puede necesitarse o bien sólo parte o la


totalidad de los autovalores, o bien algunos
autovalores y sus autovectores, o bien todos los
autovalores y sus autovectores.
17-Mayo-2011 3/22
Enfoque General
„ Si se puede, se expresan los autovalores de la matriz
incógnita en términos de autovalores conocidos de otra
matriz.

„Matriz Semejante B = P-1 A P tiene mismos autovalores


que matriz A.

„Si B = P(A), con P una función polinómica, entonces


dado un autovalor λ de A resulta que P(λ) es autovalor de
B.

„ Si la matriz es de muy bajo orden, autovalores y


autovectores se calculan analíticamente de las definiciones.
17-Mayo-2011 4/22
Enfoque General
„En el caso general, la estrategia óptima es reducir la matriz a
una forma sencilla. Por ejemplo, para matrices simétricas se
usa reducción de Givens a forma tridiagonal.

„ Una vez reducida a forma tridiagonal los autovalores se


localizan, por ejemplo con norma matricial, Gerschgorin,
secuencia de Givens & Sturm.

„ Una vez localizados, los autovalores se calculan, por ejemplo


como raíces del polinomio característico, y sus
autovectores mediante iteración inversa.

„ Si sólo se necesita mayor autovalor en módulo y su


autovector, matriz iterada.
17-Mayo-2011 5/22
Localización de Autovalores
Norma de la Matriz como cota de sus Autovalores

∀λ ∈ σ ( A ) λ ≤ A

Normas Vectoriales Normas Matriciales Inducidas


n Ax
= ∑x p > 0, x ∈ R A = max , A ∈ R n×n , x ∈ R n
p
x p
i , n
p
i =1
x≠0 x

n
A = max Az , A ∈ R n×n , z ∈ R n con z = 1
x 1 = ∑ xi , x ∈ R n
z =1
i =1

x ∞
= max xi , x ∈ R n n
1≤i ≤ n
A 1 = max ∑ ai , j
1≤ j ≤ n
i =1
n
A ∞
= max ∑ ai , j
1≤i ≤ n
i =1

17-Mayo-2011 6/22
Localización de Autovalores
Teorema de Gerschgorin

Dada una Matriz cuadrada A se definen los radios ri y los círculos


Zi en el plano complejo, según

{ }
n
ri = ∑ ai , j , 1 ≤ i ≤ n Z i = z ∈ C tal que z − ai ,i ≤ ri
j =1
j ≠i

Entonces:
1) Para todo autovalor existe un círculo Zi que lo contiene
2) Existe al menos un autovalor en cada círculo. Si m círculos
forman un conjunto del plano, disjunto de los demás, existen m
autovalores en ese conjunto del plano.

17-Mayo-2011 7/22
Localización de Autovalores
Teorema de Gerschgorin
Demostración parte 1) dado un autovalor λ y su autovector x,
consideremos su componente k-esima caracterizada por ser la
mayor en valor absoluto. Entonces

(λ − a ) x = ∑ a
n n

Ax=λ x ∑ a k , j x j = λ xk
j =1
k ,k k
j =1
k, j xj
j≠k

n
λ − ak ,k xk ≤ ∑ ak , j x j ≤ rk xk
λ ∈ Zk λ − ak ,k ≤ rk j =1
j≠k

17-Mayo-2011 8/22
Localización de Autovalores
Teorema de Gerschgorin
Aplicación – Plano Complejo para una Matriz General
Z1
Im
Z6
λ1
λ6
Z7
Z2 Z3
λ7 λ2 λ Re
3

Z4 Z5
λ4 λ
5

17-Mayo-2011 9/22
Localización de Autovalores
Teorema de Gerschgorin
Aplicación – Recta Real, para una Matriz Simétrica/Hermítica

Z7 Im
Z6 Z1 Z2 Z3
Z4 Z5 Re
λ7 λ6 λ4 λ1 λ2 λ3 λ5

17-Mayo-2011 10/22
Localización de Autovalores
Secuencia de Givens para Matriz Tridiagonal
Calculemos polinomio característico para la matriz tridiagonal A:

⎡α1 β1 ⎤
⎢β α β2 ⎥
⎢ 1 2 ⎥ Desarrollando det(A-xI) por la
⎢ β2 O O ⎥ última fila - contribución cofactor
A=⎢ ⎥
⎢ O α n−2 β n−2 ⎥ de coeficiente (αn-x):
⎢ β n−2 α n −1 β n −1 ⎥
⎢ ⎥
⎢⎣ β n −1 α n ⎥⎦

⎡α1 − x β1 ⎤
⎢ β α − x β ⎥
⎢ 1 2 2 ⎥
⎢ β2 O O ⎥
(α n − x ) pn−1 (x ) (α n − x ) det ⎢
O α − x β

⎢ n−2 n−2 ⎥
⎢ β n−2 α n −1 − x β n −1 ⎥
⎢ ⎥
⎣⎢ β n −1 α n − x ⎥⎦
17-Mayo-2011 11/22
Localización de Autovalores
Secuencia de Givens para Matriz Tridiagonal
Calculemos polinomio característico para la matriz tridiagonal A:

⎡α1 β1 ⎤
⎢β α β2 ⎥
⎢ 1 2 ⎥ Desarrollando det(A-xI) por la
⎢ β2 O O ⎥
A=⎢ ⎥ última fila - contribución cofactor
⎢ O α n−2 β n−2 ⎥

de coeficiente βn-1:
β n−2 α n −1 β n −1 ⎥
⎢ ⎥
⎢⎣ β n −1 α n ⎥⎦

⎡α1 − x β1 ⎤
⎢ β α − x β ⎥
⎢ 1 2 2 ⎥
⎢ β2 O O ⎥
− β n2−1 pn − 2 ( x ) − β n −1 det ⎢ ⎥
⎢ O α n−2 − x β n−2 ⎥
⎢ β n−2 α n −1 − x β n −1 ⎥
⎢ ⎥
⎣⎢ β n −1 α n − x ⎥⎦
17-Mayo-2011 12/22
Localización de Autovalores
Secuencia de Givens para Matriz Tridiagonal

Luego,
pn ( x ) = − β n2−1 pn − 2 ( x ) + (α n − x ) pn −1 ( x )

Recursivamente, obtenemos la secuencia de Givens, caso


particular de una secuencia de Sturm:

p0 ( x ) = 1
p1 ( x ) = α1 − x
pk (x ) = (α k − x ) pk −1 (x ) − β k2−1 pk − 2 (x ) ∀k ≥ 2

17-Mayo-2011 13/22
Localización de Autovalores
Secuencia de Givens para Matriz Tridiagonal

Entre propiedades de secuencias de Sturm:


• El número de raíces de pn(x) ubicadas a la izquierda
de t coincide con el número de cambios de signo de la
secuencia p0(t) ,p1(t) ,…, pn(t).

•Mediante simples evaluaciones de la secuencia de


polinomios, pueden obtenerse intervalos disjuntos que
contengan cada uno un autovalor de la matriz A.

17-Mayo-2011 14/22
Localización de Autovalores
Secuencia de Givens para Matriz Tridiagonal
Ejemplo ⎡2 1 ⎤ p0 ( x ) = 1
⎢1 4 1 ⎥ p1 ( x ) = 2 − x
n=4 ⎢ ⎥
A=⎢ 1 O O ⎥ p2 ( x ) = (4 − x ) p1 ( x ) −1
⎢ ⎥
⎢ O 4 1 ⎥ p3 ( x ) = (4 − x ) p2 ( x ) − p1 ( x )
⎢⎣ 1 2⎥⎦ p4 ( x ) = (2 − x ) p3 (x ) − p2 (x )

t = 2, p0 (t ) = +1, p1 (t ) = 0, p2 (t ) = −1, p3 (t ) = −2, p4 (t ) = +1

2 cambios de signo -> hay 2 autovalores menores que 2.

t = , p0 (t ) = +1, p1 (t ) = + , p2 (t ) = + , p3 (t ) = + , p4 (t ) = −
3 1 1 1 3
2 2 4 8 16

1 cambio de signo -> hay 1 autovalores menores que 3/2. Etc.

17-Mayo-2011 15/22
Localización de Autovalores
Herramientas de SCILAB
» A=[2 1 0 0; 1 4 1 0; 0 1 4 1; 0 0 1 2] %Definimos la matriz
A =
2 1 0 0
1 4 1 0
0 1 4 1
0 0 1 2
» roots(poly(A)) %Calculamos autovalores
ans =
5.30277563773202
3.61803398874985
1.69722436226805
1.38196601125008
» [v,l]=eig(A) %Calculamos autovectores (columnas) y autovalores
v =
-0.67676626214998 -0.60150095500755 -0.37174803446018 0.2049083366179
0.20490833661796 0.37174803446018 -0.60150095500755 0.67676626214998
0.20490833661796 -0.37174803446018 0.60150095500755 0.67676626214998
-0.67676626214998 0.60150095500755 0.37174803446018 0.20490833661796
l =
1.69722436226801 0 0 0
0 1.38196601125011 0 0
0 0 3.61803398874989 0
0 0 0 5.30277563773199
17-Mayo-2011 16/22
Mayor Autovalor en Módulo
Potencia Iterada
Si |λ1| < |λ2| ≤ |λ3| … ≤ |λn|, partiendo de un vector arbitrario
z(0) con componente no nula en la dirección del autovector
v1, definimos

z ( k ) → v1
k →∞

w (k +1) = A z (k ) ( k +1)
wj
w ( k +1) Entonces (k ) → λ1
z (k +1) = (k +1) zj k →∞
w
w (k ) → λ1
k →∞

17-Mayo-2011 17/22
Mayor Autovalor en Módulo
Potencia Iterada
Demostración: veamos el primer punto, del que se deducen
facilmente los otros dos. Como z(0) tiene componente no nula en la
dirección del autovector v1, entonces en la base de autovectores
n n n

∑ i i ∑ i i ∑ i i vi
n
(0 )
z (0 ) = ∑ α i v i , con α1 ≠ 0 =A α = α = α λ k
A z
k k
v A v k

i =1 i =1 i =1 i =1

⎛ n
α ⎛ λ ⎞
k

A z = α1λ1 v1 + ∑ ⎜⎜ ⎟⎟ v i ⎟
k (0 ) k⎜ i i
⎜ i = 2 α1 ⎝ λ1 ⎠

⎝ ⎠

⎛ k

α1λ1 ⎜ v + α i ⎜ λi ⎟ v ⎟
⎛ ⎞
k n
1
(k ) A k z (0 ) z (k ) =
⎜ ∑ ⎜λ ⎟ i⎟
z = k (0 ) α1λ1k α ⎛λ ⎞
k 1
α 1 ⎝ 1⎠ ⎠
v1 + ∑ i ⎜⎜ i ⎟⎟ v i ⎝
n i = 2
A z
i = 2 α1 ⎝ λ1 ⎠

17-Mayo-2011 18/22
Mayor Autovalor en Módulo
Potencia Iterada
„ Puede utilizarse cualquier norma vectorial. En particular, muchas veces
se utiliza la norma L∞, que permite el ahorro de cálculos – aunque no de
desiciones lógicas - al sólo elegir el máximo elemento en valor absoluto.

„ Más allá de la norma elegida, la convergencia será siempre lineal,


aunque con distintos cocientes de convergencia, que pueden llevar a
distintas conveniencias de una norma sobre otra en distintos casos
concretos.

„ Salvo casos particulares, la razón de convergencia resulta ser λ2/λ1


cuando el autovector es calculado componente a componente, o con
norma L∞. Si la matriz es simétrica, la razón de convergencia resulta ser
(λ2/λ1)2 cuando el autovector es calculado con norma L2 , que resulta
entonces ser más conveniente.

17-Mayo-2011 19/22
Iteración Inversa
Se trata de hacer matriz iterada con (A-ρI)-1, con ρ próximo a
un autovalor dado λj (real).
En la iteración k-esima se tendrá:
n n n
(A − ρI ) −k
z (0 )
= (A − ρI )
−k
∑ α v = ∑ α (A − ρI )
i i i
−k
v i = ∑ α i (λi − ρ ) v i
−k

i =1 i =1 i =1

El término j-esimo dominará cuando k sea suficientemente grande,


obteniéndose (λj-ρ)-1 y su autovector vj. No se resuelve
explícitamente la inversa, sino que en su lugar para calcular
( k +1)
= (A − λI ) z (k )
−1
w

se hace (A − λI ) w (k +1) = z (k )
y se resuelve para w(k+1)
17-Mayo-2011 20/22
Referencias
„ Análisis Numérico; Richard L. Burden, J. Douglas Faires; Thomson
Learning (2002); septima edición; ISBN: 970-686-134-3
„ Numerical Recipes in FORTRAN 90: The Art of Scientific Computing;
William H. Press, Saul A. Teukolsky, William T. Vetterling, Brian P.
Flannery; Cambridge University Press (1999), Second Edition, ISBN-
10:0-521-43064-X
„A First Course in Numerical Analysis; Anthony Ralston & Philip
Rabinowitz; Dover Publications, Inc (2001), Segunda Edición, ISBN-13:
978-0-486-41454-6

17-Mayo-2011 21/22

Potrebbero piacerti anche