Sei sulla pagina 1di 152

H.

Scaletti - Mtodos Numricos: Introduccin 1 - 1


1. Algunas Ideas Generales sobre Mtodos Numricos
1.1 Introduccin
En ciencia y tecnologa son comunes los problemas para los que no es posible hallar una
solucin analtica. Es frecuente entonces reducir el problema a un caso particular, o
simplificar el modelo de modo que pueda ser analizado. Hay, sin embargo, situaciones
en que un modelo simplificado no es apropiado para describir los aspectos que son
importantes en el comportamiento. Se recurre entonces a soluciones numricas. La
magnitud del trabajo es funcin de la precisin que se requiere. En los ltimos 50 aos,
gracias a las computadoras digitales, las posibilidades para utilizar eficientemente los
mtodos numricos han aumentado enormemente; y los puntos de vista con relacin a
ellos han ciertamente cambiado.
En la mayor parte de los mtodos numricos se aplican ideas relativamente simples.
Una idea frecuente es la de iteracin, es decir, la repeticin de un proceso en forma tal
que se obtienen cada vez mejores aproximaciones a la solucin. Para ilustrar el uso de
iteraciones considrese la solucin de c x =
3
. En este caso x es la raz cbica de c .
Esta ecuacin puede reescribirse como:

+ =
2
2
3
1
x
c
x x
Empezando con la aproximacin inicial 0
0
x x , se puede iterar con:

+ =
+
2
1
2
3
1
n
n n
x
c
x x
Esta es una aplicacin del conocido mtodo de Newton para hallar races de una
ecuacin no lineal. Por ejemplo, para el caso 2 = c (es decir 2
3
= x ) y con 1
0
= x se
obtienen:
333 . 1
) 1 (
2
1 2
3
1
2 1
=

+ = x
889 263 . 1
) 333 . 1 (
2
333 . 1 2
3
1
2 2
=

+ = x
y as sucesivamente:
450 493 933 1.259
3
= x
18 0 50 0 921 1.259
4
= x
895 049 921 1.259
5
= x
Una interpretacin geomtrica de la
iteracin se muestra en la figura.
0
0.5
1
1.5
2
2.5
3
0 0.5 1 1.5 2 2.5 3 x
y

Puede en este caso probarse que el proceso converge siempre, para cualquier seleccin
de x
0
. Si x
n
tiene t dgitos correctos, x
n+1
tendr por lo menos 2t 1 dgitos correctos.
Sin embargo, no todos los procesos iterativos funcionan. Por ejemplo, podra escribirse
2
1
2
n n
x x =
+
, lo que produce resultados alternados y obviamente no converge.
x y =

) / 2 2 (
2
3
1
x x y + =

H. Scaletti - Mtodos Numricos: Introduccin 1 - 2
Otra idea frecuente es la de aproximar localmente una funcin complicada por una
funcin lineal (o quizs parablica u otra relativamente simple). Esto es lo que se hace
al interpolar entre dos lneas de una tabla, o en procesos tales como el mtodo de
Newton Raphson para mejorar la aproximacin a una raz de una funcin 0 ) ( = x f , la
integracin de una funcin por el mtodo de los trapecios, la solucin de una ecuacin
diferencial ) , ( y x f y = por el mtodo de Euler, por citar slo algunos de los mtodos ms
conocidos.
En muchos casos se obtiene un conjunto de resultados en una sucesin de etapas, para
cada una de las cuales se consideran como datos los resultados de la etapa anterior.
Tales procesos se denominan de recursin. Son muy poderosos, pero deben ser
utilizados con propiedad. La Regla de Horner para evaluar un polinomio tal como
n n
n n
a x a x a x a x p + + + + =

1
1
1 0
) ( K proporciona un ejemplo simple de recursin. El
polinomio p(x) puede evaluarse realizando las operaciones:
0
0
= p
0 0 1
a x p p + =
M
1 1 2
a x p p + =

) (
1
x p a x p p
n n n
= + =


La acumulacin de errores en un proceso de este tipo puede ser importante.
El ejemplo siguiente ilustra tambin el uso de una recursin y el fenmeno conocido
como inestabilidad numrica. Supngase que se requiere calcular, para n = 0, 1, 2, ...

+
=
1
0
5
dx
x
x
y
n
n

Puede observarse que los valores de y
n
decrecen con n. Adems:
n
dx x dx
x
x x
dx
x
x
dx
x
x
y y
n
n n n
n n
1
5
) 5 (
5
5
5
5
1
0
1
1
0
1
1
0
1
1
0
1
= =
+
+
=
+
+
+
= +



y por lo tanto: y
n
= 1/n 5y
n-1
. Esta expresin podra permitir determinar los sucesivos
y
n
a partir de un valor inicial, como y
0
. Sabiendo que:
( ) [ ] 182 . 0
5
6
5
5
1
0
1
0
0

= + =
+
=

Ln x Ln dx
x
x
y
n

Se obtienen (en todos los clculos de este ejemplo se han considerado slo tres cifras
significativas):
182 0
0
. y
090 0 5 1
0 1
. y y =
050 . 0 5
1 2
1
2
= y y
083 . 0 5
2 3
1
3
= y y Sorprendente que se obtenga y
3
> y
2
!
165 . 0 5
3 4
1
4
= y y Absurdo!
L 03 . 1 5
4 5
1
5
= y y
Los malos resultados se deben a que las aproximaciones y el uso de un nmero finito de
dgitos introducen errores, que se propagan a etapas posteriores del clculo. La forma
H. Scaletti - Mtodos Numricos: Introduccin 1 - 3
en que estos errores se propagan (o disipan) es decisiva en la utilidad de un mtodo
numrico dado.
En el proceso utilizado, un pequeo error en y
o
se multiplica por 5 en el clculo de
y
1
. Sin tener en consideracin los errores introducidos en los redondeos de este paso, se
produce un error de 25 en y
2
. El resultado del paso k est afectado por el error inicial
multiplicado por (-5)
k
. A esto deben agregarse los efectos de los errores introducidos en
todos los pasos intermedios. Si se hubieran utilizado ms cifras decimales en los
clculos, los resultados absurdos habran tambin aparecido, aunque un tanto ms
adelante en el proceso. La inestabilidad numrica puede evitarse seleccionando un
algoritmo ms adecuado. As, utilizando la frmula en la otra direccin:

=
n
y
n
y
1
5
1

1 - n

el error queda dividido por 5 en cada paso. Sabiendo que y
n
decrece cuando n crece,
pueden iniciarse los clculos con algo tan pobre como 0
10
= y , obtenindose:
( ) 020 . 0 0
10
1
5
1
9
= = y
( ) 019 . 0
9 9
1
5
1
8
= y y
( ) 021 . 0
8 8
1
5
1
7
= y y
( ) 025 . 0
7 7
1
5
1
6
= y y
y as sucesivamente:
y
5
0.028
y
4
0.034
y
3
0.043
y
2
0.058
y
1
0.088
y
0
0.182 Correcto! (a pesar de la errada informacin inicial)
Sin embargo, no debe creerse que el utilizar frmulas al revs es el remedio para todos
los problemas numricos. Cualquier proceso que se plantee no ser siempre aplicable,
ni en todos los casos el ms efectivo.
1.2 Fuentes de Error
Los resultados numricos estn afectados por errores provenientes de diversas fuentes.
En primer lugar deben citarse errores en los datos, puesto que ellos son en general
resultado de mediciones o estimaciones imperfectas. Es de esperar que los errores
relativos en los resultados sean del mismo orden de magnitud (o menores) que aquellos
de los datos. Sin embargo, ste no siempre es el caso: se dice entonces que el
problema es mal condicionado, es decir, la solucin es muy sensible a pequeos
errores en los datos. Dificultades de este tipo pueden tambin no ser debidas a la
formulacin del problema, sino a un mal condicionamiento del mtodo numrico utilizado.
Un segundo grupo de errores es debido a simplificaciones en el modelo matemtico del
problema y a la truncacin de expresiones (series por ejemplo), cuyo objetivo es evitar
que la formulacin se complique ms all de lo que razonablemente puede manejarse.
-1
-0.5
0
0.5
1
1.5
0 1 2 3 4 5
n
Y
n creciente
n decreciente
H. Scaletti - Mtodos Numricos: Introduccin 1 - 4
Ms importantes desde el punto de vista de los mtodos numricos son los errores de
truncacin y redondeo. stos son funcin del procedimiento empleado y de las
caractersticas de operacin de la computadora. La mayor parte de las computadoras
trabajan internamente con sistemas de numeracin binarios, octales o hexadecimales y
tienen dos tipos de aritmtica: de punto fijo (o enteros) y de punto flotante (o reales).
La aritmtica de punto fijo es exacta, pero est limitada a nmeros enteros y a un rango
pequeo. En consecuencia, la mayor parte de las operaciones se efectan con la
aritmtica de punto flotante. En la aritmtica de punto flotante la representacin interna
de un nmero es de la forma:
q
m a 10 = , donde mes la mantisa y q el exponente.
Slo se almacenan t cifras (en base b ) de la mantisa, y por lo tanto cualquier nmero
puede ser representado con un error relativo que no excede
1
2
1
t
b (habitualmente entre
10
-6
y 10
-15
). Para q se usa un nmero finito de posiciones de memoria y en
consecuencia existe un rango aceptable (en general muy grande) para los nmeros con
punto flotante.
Las operaciones aritmticas en punto flotante tienen propiedades algo diferentes de
aquellas correspondientes en la aritmtica exacta. As por ejemplo, la suma (o resta)
no es estrictamente asociativa.
0
10 1234567 . 0 = a
4
10 123567 . 0 = b
b c =

El esquema siguiente indica como se efecta la suma en punto flotante:
4
10 1234567 . 0 b

4
10 0000123 . 0 a (las cuatro cifras finales se recortan)
4
10 1234690 . 0 + b a

4
10 1234567 . 0 c

( ) 1230000 . 0 10 0000123 . 0
4
= + + c b a

mientras que
0
10 1234567 . 0 ) ( = + + a c b . El orden de las operaciones s afecta los
resultados.
Esto es vlido tambin para operaciones de otro tipo. Por ejemplo, las races de
0 2
2
= + + c bx x podran obtenerse de: c b b x =
2
. Sin embargo el proceso
alternativo (y tericamente equivalente):
c b b signo b x =
2
1
) (
1
2
x
c
x =
tiene mucho menos acumulacin de error, especialmente cuando c es pequeo, porque
evita la resta de dos nmeros del mismo orden de magnitud. Considrese, por ejemplo,
la ecuacin: 0 1 64
2
= + x x . Trabajando con 5 cifras significativas:
3
2
1
1
10 984 . 63 984 . 31 32 1023 32

= + + = x
3
2
1
2
10 016 . 0 984 . 31 32 1023 32

= = x
H. Scaletti - Mtodos Numricos: Introduccin 1 - 5
El error relativo en
2
x es muy grande. La resta se ha hecho en forma exacta; la causa
del error est ms bien en el redondeo previo de la raz cuadrada. Si en cambio se toma
1 2
1 x x = se obtiene:
0000005 . 0 015629 . 0
10
2
1
984 . 63
1
3
2
=

=

x
con un error relativo del mismo orden que el de
1
x
.

Finalmente, deben mencionarse errores humanos y errores de la computadora. Estos
ltimos son prcticamente inexistentes, los primeros son en cambio la causa de muchos
resultados inesperados.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 1
2. LGEBRA LINEAL
2.1 Definiciones
Una matriz = (a
ij
), de orden n x m, es un conjunto de nmeros dispuestos en n filas y m
columnas.
|
|
|
|
|
|

\
|
=
nm n n n
m
m
m
a .... a a a
.....
a .... a a a
a .... a a a
a .... a a a
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11
A
Un elemento, a
ij
, se identifica por dos sub ndices, el primero de los cuales denota la
fila y el segundo la columna. Si m = 1 se tiene una matriz columna o "vector" de
dimensin n:

=
3
2
1
b
b
b
M
b
Si en cambio n = 1, se tiene una matriz fila: [ ]
m
c c c K
2 1
= c . Si n = m se dice que
la matriz es cuadrada (de orden n). Por ejemplo:
|
|
|
|
|

\
|
=
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
A
|
|
|
|
|

\
|
=
4
3
2
1
0 0 0
0 0 0
0 0 0
0 0 0
d
d
d
d
D
|
|
|
|
|

\
|
=
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
n
I
A, D e I
n
son matrices cuadradas. La matriz [ ]
n
d d d diag K
2 1
= D es una matriz
diagonal, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal
principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el
de [ ] ( )
ij
diag = = 1 1 1 K
n
I , que es una matriz unidad (o identidad) de orden n. La
matriz identidad tiene en el lgebra matricial un papel similar al uno en lgebra comn.
Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada),
cuyos elementos son todos ceros.
Las matrices cuadradas cuyos elementos tienen simetra conjugada:

=
ji ij
a a (donde *
indica conjugada compleja) se denominan Hermitianas. Por ejemplo:
|
|
|
|
|

\
|
+
+ +
+
+
=
4 3 2 1 0
3 2 3 1 2 3
1 1 5 2
0 2 3 2 1
i i
i i i
i i i
i i
H 1 = i
es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales,
es decir
ji ij
a a = , se tiene una matriz simtrica.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 2
Una matriz cuadrada en la que la mayor parte de los elementos son ceros y los
elementos con valor significativo estn agrupados alrededor de la diagonal principal se
denomina matriz banda. Por ejemplo:
|
|
|
|
|
|

\
|

=
1 1
1 2 1
1 2 1
1 2 1
1 1
B
Las lneas paralelas a la diagonal principal se llaman codiagonales. El nmero total de
diagonal y codiagonales con elementos significativos en el ancho de banda (3 en este
ejemplo). Para matrices simtricas puede tambin hablarse de un ancho de semi
banda; que incluye a la diagonal principal (2 en el ejemplo precedente). Una matriz
banda tiene baja densidad. Por densidad se entiende la razn entre el nmero de
elementos con valor significativo y el nmero total de elementos.
Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal
principal son cero se dice que sta es una matriz triangular inferior (superior):
|
|
|
|
|
|

\
|
=
nm n n n
l L l l l
K
L l l l
L l l
L l
3 2 1
33 32 31
22 21
11
0
0 0
0 0 0
L
|
|
|
|
|
|

\
|
=
nm
n
n
n
u
u u
u u u
u u u u
L
K
L
L
L
0 0 0
0 0
0
3 33
2 23 22
1 13 12 11
U
En lo que sigue se usan letras negritas para denotar matrices. Para las matrices
columna y para las matrices filas se usan minsculas, mientras que para las matrices
rectangulares (incluyendo las matrices cuadradas) se usan maysculas. En todos los
casos, los elementos de una matriz se indican en minsculas.
2.2 Operaciones Bsicas con Matrices
Subdivisin o particin. El conjunto de elementos de una matriz A puede ser dividido
en otros ms pequeos mediante lneas horizontales y/o verticales. Las distintas partes,
A
11
, A
12
, etc. son submatrices de la matriz A. Las submatrices pueden tratarse como
elementos comunes de una matriz, excepto que deben operarse segn las reglas del
lgebra matricial.
Igualdad. Dos matrices, A, B, del mismo orden, son iguales si cada elemento de una es
igual al correspondiente elemento de la otra. A = B implica
ij ij
b a = para todo i, j.
Suma (resta). La suma (o diferencia) de dos matrices A, B del mismo orden es una
tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando)
algebraicamente los correspondientes elementos de las dos matrices originales:
C B A =
ij ij ij
c b a =
La suma (resta) de matrices es asociativa y conmutativa:
( ) ( ) C B A C B A + + = + + A B B A + = +

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 3
Derivada e integral. Anlogamente, puede definirse la derivada de una matriz:

ij
ij
b
a
=


B
A

y la integral de una matriz en forma similar.
Multiplicacin por un escalar. El producto de una matriz por un escalar es otra matriz
del mismo orden cuyos elementos son los de la matriz original multiplicados por el
escalar:
ij ij
b a = = B A
Multiplicacin de dos matrices. Dos matrices, A (m x p) y B (p x n) pueden ser
multiplicadas en el orden A B slo si son conformables para el producto, es decir, si el
nmero de columnas de A es igual al nmero de filas de B. El producto C (m x n) es
una matriz cuyos elementos se obtienen de:
n j m i b a c
p
k
kj ik ij
, 1 , 1
1
= = =

=

Por ejemplo, si:
|
|
|

\
|
=
4 3 10
2 6 4
1 3 5
A

|
|
|

\
|
=
2 3
4 2
5 1
B

B A C =

70 2 4 4 3 5 10
22 3 2 2 6 1 4
14 3 1 2 3 1 5
32
21
11
= + + =
= + + =
= + + =
c
c
c
K

|
|
|

\
|
=
70 28
48 22
39 14
C
La multiplicacin de matrices es asociativa y distributiva, pero en general no es
conmutativa:
C B A C B A ) ( ) ( = AC AB C B A + = + ) ( BA AB
Siendo el orden de multiplicacin importante, es frecuente enfatizarlo, diciendo por
ejemplo que en el producto AB la matriz A premultiplica a B, o bien que B postmultiplica
a A. En algunos casos BA AB = ; se dice entonces que A y B son conmutables.
Es fcil verificar que el producto de dos matrices triangulares inferiores (superiores) es
otra matriz triangular inferior (superior).
Transposicin. La transpuesta A
T
de una matriz A es aquella cuyas filas son las
columnas de A (y viceversa). Si ) (
ij
T
b = = B A , entonces
ji ij
a b = :
|
|
|

\
|
=
6 3
5 2
4 1
A
|
|

\
|
=
6 5 4
3 2 1
T
A
La transpuesta de una matriz simtrica es obviamente la matriz original. Productos del
tipo A A
T
resultan siempre en matrices simtricas. Lo mismo puede decirse de
productos SA A
T
si S es simtrica.
Cuando se transpone un producto matricial la secuencia de los factores debe invertirse:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 4
( )
T T T T
A B C C AB K K =
Determinante de una matriz cuadrada. Es un nmero que resulta de:

= =
!
3 2 1
det
n
nr k j i
a a a a K A A
Donde cada trmino de la suma incluye un solo elemento de cada fila y de cada
columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..
n, los ndices de las columnas en cada trmino de la suma pueden ser obtenidos como
permutacin del orden normal. Segn el nmero de cambios requeridos para esta
permutacin sea par o impar se asigna al producto correspondiente el signo + o -. La
suma incluye las n! permutaciones posibles.
Las siguientes propiedades facilitan el cmputo de la determinante de una matriz
cuadrada A cualquiera:
Si se intercambian dos filas (columnas) la determinante cambia de signo.
La determinante de una matriz, A , es igual a la determinante de su transpuesta.
El valor de la determinante de una matriz A no se altera si una columna (fila)
multiplicada por un escalar se suma algebraicamente a otra columna (fila):
bc ad
a
bc
d
b a
d c
b a
=
|
|

\
|

=
|
|

\
|
0
det det
En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o
proporcionales) es cero. Ms an,si dos o ms columnas (filas) de una matriz A son
linealmente dependientes, es decir
1
a
1
+
2
a
2
+
3
a
3
+...+
n-1
a
n-1
+
n
a
n
= 0 para un
conjunto de coeficientes
i
de los que por lo menos uno es distinto de cero, la
determinante es cero. Se dice entonces que la matriz A es singular. Considrese por
ejemplo el caso:
|
|
|

\
|
=
1 1 0
1 2 1
0 1 1
A
A es singular puesto que: ( ) ( ) ( )

0
0
0
1
1
0
1
1
2
1
1
0
1
1
1
La determinante de una matriz triangular es igual al producto de los elementos de su
diagonal principal.
Para un producto matricial se cumple que:
( ) ) det( ) det( ) det( det C B A C B A K K =
As, por ejemplo, si:
|
|
|
|
|

\
|
|
|
|
|
|

\
|
=
|
|
|
|
|

\
|
=
24 0 0 0
24 6 0 0
12 6 2 0
4 3 2 1
1 6 7 1
0 1 3 1
0 0 1 1
0 0 0 1
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
A
entonces: ( ) ( ) 288 24 6 2 1 1 ) det( = = A

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 5
Inversa de una matriz. Si una matriz A es no singular, es posible obtener su inversa,
A
-1
, que satisface:
n
I AA A A = =
1 1
( ) A A =

1
1

Obviamente
n n
I I =
1
. La inversa de una matriz diagonal es otra matriz diagonal, cuyos
elementos son inversas de los elementos de la matriz original. La inversa de una matriz
triangular (inferior o superior) es otra matriz triangular del mismo tipo.
La inversin de matrices permite efectuar la operacin equivalente a la divisin del
lgebra comn.
C A B C AB
1
= = (vanse los comentarios del tem 2.5.5)
Para la inversa de un producto matricial se cumple:
( )
1 1 1 1
= A B C C AB K K
Una matriz Q se denomina ortogonal si:
n
T
I Q Q = . Particularmente, si Q es una matriz
cuadrada se tiene entonces que
T
Q Q =
1
. Por ejemplo:
|
|

\
|
=


cos sen
sen cos
R

es ortogonal, puesto que:
T
R R =
|
|

\
|



cos sen
sen cos
1
.
Refirindose a una matriz con coeficientes complejos, U, se dice que sta es unitaria si
I U U =
*

2.3 Espacios y Subespacios Vectoriales
Una matriz columna de orden n es un conjunto nmeros que pueden ser interpretados
como componentes de un vector en un espacio de dimensin n.
Se dice que un conjunto de vectores v
1
v
2
v
3
.... v
5
son linealmente dependientes si
existen nmeros
1

2

3
....
5
, no todos cero, tales que:
0
5 5 3 3 2 2 1 1
= + + + + v v v v K
Alternativamente, puede decirse que los vectores son linealmente dependientes si uno
cualquiera de ellos puede expresarse como combinacin lineal de los otros:

=
r i
i i r
c v v (y linealmente independientes si esto no es posible).
p vectores linealmente independientes de orden n ( p n ) conforman una base de un
espacio vectorial de dimensin p. Por otro lado, q vectores, de los que p ( q p ) son
linealmente independientes, estn contenidos en un espacio de dimensin p.
Si los vectores linealmente independientes x
1
x
2
.... x
p
constituyen una base de un
espacio vectorial de dimensin p, un sub conjunto de estos puede considerarse como
base de un sub espacio contenido en el espacio vectorial original.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 6
Las columnas (o filas) de una matriz rectangular A pueden tratarse como vectores. El
nmero de vectores linealmente independientes define el rango de la matriz. Una
matriz cuadrada es no singular si su rango es igual al orden de la matriz, es decir si
todas las columnas son linealmente independientes. Lo contrario implica que una o ms
columnas (filas) pueden obtenerse como combinacin lineal de las otras y la
determinante es cero.
2.4 Sistemas de Ecuaciones Lineales
Se ha estimado que un 75% de los problemas de ingeniera se presenta, en alguna
etapa del trabajo, la solucin de un sistema de ecuaciones lineales:
n n nn n n n
n n
n n
n n
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
= + + + +

= + + + +
= + + + +
= + + + +
K
K
K
K
3 3 2 2 1 1
3 3 3 33 2 32 1 31
2 2 3 23 2 22 1 21
1 1 3 13 2 12 1 11
(2.1a)
o bien: b Ax =

|
|
|
|
|
|

\
|
n n nn n n n
n
n
n
b
b
b
b
x
x
x
x
a a a a
a a a a
a a a a
a a a a
M M
K
L
K
K
K
3
2
1
3
2
1
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11
(2.1b)
En las secciones siguientes se supone que el sistema de ecuaciones tiene solucin
nica, es decir, que 0 ) det( A .
La solucin de sistemas de ecuaciones es un buen ejemplo de las diferencias entre las
matemticas clsicas y los mtodos numricos modernos. As, la Regla de Cramer:
|
|
|
|
|
|

\
|
|
|
|
|
|
|

\
|
=
nn nj n n
n j
n j
n j
nn n n n
n
n
n
j
a a a a
a a a a
a a a a
a a a a
a b a a
a b a a
a b a a
a b a a
x
K K
L
K K
K K
K K
K K
L
K K
K K
K K
2 1
3 3 32 31
2 2 22 21
1 1 12 11
2 1
3 3 32 31
2 2 22 21
1 1 12 11
det
det
(2.2)
si bien proporciona frmulas explcitas es tremendamente ineficiente cuando se trata de
resolver sistemas con ms de 3 incgnitas (excepto para casos muy especiales de la
matriz de coeficientes).
Muchos mtodos frecuentemente utilizados en ingeniera, como por ejemplo los mtodos
de elementos finitos para la solucin de ecuaciones en derivadas parciales, resultan en

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 7
el planteamiento de grandes sistemas de ecuaciones lineales. El costo de anlisis y en
muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran
medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo
utilizado en su solucin.
2.5 Mtodos Directos para la Solucin
de Sistemas de Ecuaciones Lineales
Este acpite considera mtodos que, de no haber errores de redondeo, producen la
solucin exacta en un nmero finito de pasos. Para sistemas Ax = b, en los que A es de
alta densidad, los mtodos directos son en general los ms eficientes (para las
computadoras actualmente utilizadas). Sin embargo, cuando un gran nmero de
elementos de A son cero, y en especial cuando A es definida positiva ( 0 > Ax x
T
para
cualquier 0 x ), puede ser ms conveniente utilizar un mtodo iterativo en que se
obtiene una secuencia de soluciones aproximadas que convergen a la solucin exacta.
2.5.1. Sistemas Triangulares
La solucin de sistemas de ecuaciones lineales es particularmente simple cuando la
matriz de coeficientes es triangular. Por ejemplo, considrese un sistema Ux = b en el
que U es triangular superior:
n n nn
n n nn n n n
n n
n n
n n
b x u
b x u x u
b x u x u
b x u x u x u
b x u x u x u x u
=
= +
= + +
= + + +
= + + + +
1 1 , 1
3 3 3 33
2 2 3 23 2 22
1 1 3 13 2 12 1 11
K K
K
K
K
(2.3)
Si U es no singular ( 0
ii
u para todo i), las incgnitas pueden evaluarse en el orden: n,
n-1, n-2, n-3, ... 2, 1:
nn
n
n
u
b
x = (2.4a)
|
|

\
|
=

+ =
n
i k
k ik i
ii
i
x u b
u
x
1
1
(2.4b)
Este proceso se denomina sustitucin inversa. Anlogamente, para un sistema Lx = b,
en el que L es una matriz triangular inferior no singular ( 0
ii
l para todo i), puede
utilizarse una sustitucin directa o reduccin:
11
1
1
l
b
x = (2.5a)
|
|

\
|
=

=
1
1
1
i
k
k ik i
ii
i
x l b
l
x (2.5b)
En ambos casos, la solucin del sistema requiere n divisiones y ( ) 1
2
1
n n operaciones
de multiplicacin y suma (casi lo mismo que para multiplicar una matriz triangular por un
vector).

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 8
2.5.2 Mtodo de Gauss
ste es el ms importante de los mtodos directos para la solucin de sistemas de
ecuaciones lineales. La idea bsica est en combinar las distintas ecuaciones para ir
eliminando incgnitas en forma sistemtica y obtener finalmente un sistema triangular,
fcil de resolver. Considrese el sistema de orden n:
) 1 ( ) 1 (
3
) 1 (
3 2
) 1 (
2 1
) 1 (
1
) 1 (
3
) 1 (
3 3
) 1 (
33 2
) 1 (
32 1
) 1 (
31
) 1 (
2
) 1 (
2 3
) 1 (
23 2
) 1 (
22 1
) 1 (
21
) 1 (
1
) 1 (
1 3
) 1 (
13 2
) 1 (
12 1
) 1 (
11
n n nn n n n
n n
n n
n n
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
= + + + +
= + + + +
= + + + +
= + + + +
K
K K
K
K
K
(2.6)
o en forma compacta: Ax = b. En lo que sigue se supone que A es no singular.
Supngase tambin que 0
11
a . Puede entonces eliminarse x
1
de la ecuacin i si de
sta se resta la ecuacin 1 multiplicada por:
) 1 (
11
) 1 (
1
1
a
a
l
i
i
= (2.7a)
Con ello se obtiene:
) 2 ( ) 2 (
3
) 2 (
3 2
) 2 (
2
) 2 (
3
) 2 (
3 3
) 2 (
33 2
) 2 (
32
) 2 (
2
) 2 (
2 3
) 2 (
23 2
) 2 (
22
) 1 (
1
) 1 (
1 3
) 1 (
13 2
) 1 (
12 1
) 1 (
11
n n nn n n
n n
n n
n n
b x a x a x a
b x a x a x a
b x a x a x a
b x a x a x a x a
= + + +
= + + +
= + + +
= + + + +
K
K K
K
K
K
(2.7b)
donde
) 1 (
1 1
) 1 ( ) 2 (
) 1 (
1 1
) 1 ( ) 2 (
b l b b
a l a a
i i i
j i ij ij
=
=
(2.7c)
En forma similar, puede eliminarse x
2
de las ecuaciones i = 3,4,..n restando de la
ecuacin i la ecuacin 2 multiplicada por:
) 2 (
22
) 2 (
2
2
a
a
l
i
i
=
y as sucesivamente hasta obtener el sistema triangular:
) ( ) (
) 3 (
3
) 3 (
3 3
) 3 (
33
) 2 (
2
) 2 (
2 3
) 2 (
23 2
) 2 (
22
) 1 (
1
) 1 (
1 3
) 1 (
13 2
) 1 (
12 1
) 1 (
11
n
n n
n
nn
n n
n n
n n
b x a
b x a x a
b x a x a x a
b x a x a x a x a
=
= + +
= + + +
= + + + +
K K
K
K
K
(2.8)
o en notacin matricial: Ux = b.
Los elementos
) 1 (
1 , 1
) 3 (
33
) 2 (
22
) 1 (
11
, ,


n
n n
a a a a K que se usan como divisores en esta reduccin
se llaman pivotes. El proceso tal como ha sido planteado hasta el momento falla si
alguno de estos es cero. Esto en general no ocurre si la matriz A tiene diagonal

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 9
dominante (es decir, si

>
i j
ij ii
a a ) o si A es simtrica (A
T
= A) y definida positiva
(v
T
Av > 0 para v arbitrario).
El siguiente ejemplo ilustra el proceso:

|
|
|
|
|

\
|
190
44
10
2
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
) 1 (
) 1 (
) 1 (
4
3
2
1
x
x
x
x

Los nmeros indicados a la izquierda (entre parntesis) son los factores l
i1
por los que es
necesario multiplicar la ecuacin 1 antes de restarla de la ecuacin i, para lograr el
objetivo de eliminar x
1
de la segunda y las siguientes ecuaciones.

|
|
|
|
|

\
|
188
42
8
2
252 78 14 0
60 24 6 0
12 6 2 0
4 3 2 1
) 7 (
) 3 (
4
3
2
1
x
x
x
x

Anlogamente:

|
|
|
|
|

\
|
132
18
8
2
168 36 0 0
24 6 0 0
12 6 2 0
4 3 2 1
) 6 (
4
3
2
1
x
x
x
x

|
|
|
|
|

\
|
24
18
8
2
24 0 0 0
24 6 0 0
12 6 2 0
4 3 2 1
4
3
2
1
x
x
x
x

finalmente:
2 4 3 2
8 12 6 2
18 24 6
24 24
4 3 2 1
4 3 2
4 3
4
= + + +
= + +
= +
=
x x x x
x x x
x x
x

1
1
1
1
1
2
3
4
=
=
=
=
x
x
x
x

Para estimar el esfuerzo de cmputo es habitual referirse al nmero de "operaciones"
requeridas. La costumbre es contar como una operacin a la combinacin de una suma
(o resta, o simplemente una copia) con una multiplicacin (o divisin). Esta prctica
proviene de las pocas en que el tiempo requerido para efectuar una multiplicacin o una
divisin era un orden de magnitud mayor que el necesario para una suma o una resta,
pudiendo despreciarse estas ltimas. La reduccin de la matriz de coeficientes requiere
de un nmero de operaciones de orden
3
3
1
n . La reduccin del segundo miembro y la
sustitucin inversa requieren aproximadamente n
2
operaciones. Si se tuvieran varios
sistemas de ecuaciones con la misma matriz de coeficientes: Ax = b1, Ay = b2, ... slo
se requerira efectuar la reduccin de A una vez, por lo que el nmero de operaciones
sera siempre aproximadamente
3
3
1
n . Ms precisamente, se hacen n n n
3
2
2 3
3
1
2 + +

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 10
operaciones para resolver un sistema de n ecuaciones lineales, pero si n es grande slo
el primer trmino es importante.
El proceso antes descrito falla cuando se presenta un pivote,
) (i
ii
a , igual a cero. Un
ejemplo simple de tal situacin es el siguiente:

|
|
|

\
|
1
2
1
2 2 1
2 1 1
1 1 1
3
2
1
x
x
x

La matriz de coeficientes no es singular y el sistema tiene una solucin nica
( )
T
1 1 1 = x . Sin embargo, despus del primer paso (efectuado en el orden indicado
anteriormente), se obtiene:

|
|
|

\
|
0
1
1
1 1 0
1 0 0
1 1 1
3
2
1
x
x
x

y siendo 0
) 2 (
22
= a , no es posible proseguir como habitualmente. La solucin es en este
caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si 0
) (
=
i
ii
a , algn otro
elemento de la misma columna,
) (i
ji
a , debe ser distinto de cero (lo contrario implicara
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reduccin. Dados los
elementos
) (i
ji
a de la columna i, es conveniente escoger como pivote aquel de mximo
valor absoluto, puesto que el uso de pivotes pequeos introduce fuertes errores en la
solucin. El ejemplo siguiente es ilustrativo:
)
`

=
)
`

|
|

\
|


9
7
1 1
1 10 3
2
1
11
x
x

Trabajando con 10 cifras significativas se obtiene:
( )
)
`


=
)
`

|
|

\
|


10
2
1
10
11
10 333 333 333 . 3 7
7
10 333 333 333 . 3 0
1 10 000 000 000 . 3
x
x

de donde: 7
2
= x
0
1
= x
La solucin correcta es, sin embargo, 2
1
= x . Es fcil comprobar que no se presenta
este problema si se evita el pivote pequeo intercambiando previamente las ecuaciones:
)
`

=
)
`

|
|

\
|


7
9
1 10 3
1 1
2
1
11
x
x

El intercambio de filas al que se ha hecho referencia se denomina intercambio parcial.
Alternativamente, puede pensarse en un intercambio completo, en que se selecciona el
siguiente pivote como el elemento de mximo valor absoluto entre todos los elementos
de la sub matriz por reducirse. Se intercambian entonces filas (ecuaciones) y columnas
(incgnitas) para continuar el proceso como se ha descrito.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 11
El intercambio parcial es generalmente satisfactorio, desde el punto de vista de la
estabilidad numrica, y requiere bastante menos trabajo que el proceso con intercambio
total.
2.5.3 Descomposicin A = LU
Supngase que A es tal que el proceso de reduccin del mtodo de Gauss puede
efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la
descomposicin A = LU donde L es una matriz triangular inferior con 1 =
ii
l y U es una
matriz triangular superior, es nica. Esto puede probarse fcilmente por induccin. Para
el caso del primer ejemplo:
|
|
|
|
|

\
|
|
|
|
|
|

\
|
=
|
|
|
|
|

\
|
24 0 0 0
24 6 0 0
12 6 2 0
4 3 2 1
1 6 7 1
0 1 3 1
0 0 1 1
0 0 0 1
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1

Los elementos de L son justamente los coeficientes
ij
l usados durante la reduccin; U
es en cambio la matriz A reducida!
Se ha mencionado anteriormente que varios sistemas de ecuaciones con la misma
matriz de coeficientes pueden ser resueltos simultneamente. Sin embargo, no siempre
se conocen desde un principio todos los vectores de coeficientes del segundo miembro.
Por ejemplo, puede querer resolverse Ax
1
= b y Ax
2
= x
1
. An en este caso, al resolver
el segundo sistema no es necesario volver a reducir la matriz A como al inicio. El
sistema Ax = b es equivalente a LUx = b, o bien a los dos sistemas triangulares: Ly = b
, Ux = y. Siendo L y U conocidos, estos dos sistemas pueden resolverse en O(n
2
)
operaciones. L y U pueden almacenarse en las mismas posiciones de memoria que en
la matriz A: Como
) ( ) ( i
ii
i
ki ki
a a l = se determina con el objeto de hacer 0
) 1 (
=
+ i
ki
a ,
ki
l puede almacenarse en las posicin de
ki
a . Por otro lado, no es necesario almacenar
los elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos
de U son aquellos de la matriz reducida, el efecto de la reduccin o descomposicin en
la distribucin de memoria es de la forma:
|
|
|
|
|
|

\
|

|
|
|
|
|
|

\
|
nn n n n
n
n
n
nn n n n
n
n
n
u l l l
u u l l
u u u l
u u u u
a a a a
a a a a
a a a a
a a a a
K
L
K
K
K
K
L
K
K
K
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11

Para el ejemplo precedente:
|
|
|
|
|

\
|

|
|
|
|
|

\
|
24 6 7 1
24 6 3 1
12 6 2 1
4 3 2 1
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1

En los casos en los que se efectan intercambios de filas y/o columnas es siempre
posible (si A no es singular) obtener factores triangulares L y U tales que LU = A,

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 12
donde A es la matriz que resulta de efectuar los intercambios mencionados en la matriz
original A.
2.5.4 Otros Mtodos Directos
Todos los mtodos tratados en esta seccin pueden considerarse como variantes del
mtodo de Gauss.
Una posible alternativa es la de calcular los elementos de L y U mediante las frmulas:
n k k j u l a u
k
p
j p p k j k j k
+ = =

=
, 1 ,
1
1
(2.9a)
n k i u l a
u
l
k
p
k p p i k i
kk
k i
+ =
|
|

\
|
=

=
, 1
1
1
1
(2.9b)
en lugar de efectuar reducciones como anteriormente. Esta modificacin (Doolitle) es
conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos
resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se
hacen con una precisin mayor que aquella con la que se almacenan los resultados.
El mtodo de Crout efecta la factorizacin A = LDR, donde L es la misma matriz
triangular inferior obtenida durante el proceso de Gauss, D es una matriz diagonal y R es
una matriz triangular superior con coeficientes 1 en su diagonal principal. D y R estn
relacionados con la U de Gauss.
i j
d
u
r
u d
ii
ij
ij
ii ii
> =
=
(2.10)
En particular, para A simtrica: R = L
T
. Este mtodo no posee ventajas ni desventajas
con relacin al de Gauss, bien sea en cuanto a estabilidad numrica y precisin, como
en el nmero de operaciones necesarias.
Si durante el proceso de reduccin se usa la ecuacin i para eliminar x
i
, no slo de las
ecuaciones que siguen a la i sino tambin de la ecuaciones precedentes, se tiene el
mtodo de Gauss Jordan. Para el ejemplo antes considerado:

|
|
|
|
|

\
|
190
44
10
2
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
4
3
2
1
x
x
x
x

|
|
|
|
|

\
|
188
42
8
2
252 78 14 0
60 24 6 0
12 6 2 0
4 3 2 1
4
3
2
1
x
x
x
x


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 13

|
|
|
|
|

\
|
132
18
8
6
168 36 0 0
24 6 0 0
12 6 2 0
8 3 0 1
4
3
2
1
x
x
x
x

Ntese que se utiliz la segunda ecuacin para reducir no solamente las ecuaciones 3 y
4, sino tambin la ecuacin 1. Anlogamente:

|
|
|
|
|

\
|

24
18
10
3
24 0 0 0
24 6 0 0
12 0 2 0
4 0 0 1
4
3
2
1
x
x
x
x

|
|
|
|
|

\
|
24
6
2
1
24 0 0 0
0 6 0 0
0 0 2 0
0 0 0 1
4
3
2
1
x
x
x
x
de donde se obtiene fcilmente la solucin.
El mtodo de Gauss- Jordan es ms simple de programar, pero requiere casi 1.5 veces
el nmero de operaciones del mtodo de Gauss tradicional.
Finalmente, para concluir esta seccin, debe mencionarse que el mtodo de Gauss es
aplicable tambin a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:

|
|
|

\
|

+ +

i
i
i
x
x
x
i
i i
i
2 11
4 8
2 4
3 1 0
1 2 1
0 1 2
3
2
1

|
|
|

\
|

i
i
i
x
x
x
i
i
i
2 11
3 5
2 4
3 1 0
1 1 0
0 1 2
3
2
1

|
|
|

\
|
+

3
3 5
2 4
1 0 0
1 1 0
0 1 2
3
2
1
i
i
x
x
x
i
i

de donde:
[ ] 1 ) 1 ( 2 ) 2 4 (
2 ) 1 ( 3 ) 3 5 (
3
2
1
1
2
3
= =
= + + =
=
i i x
i i x
x

2.5.5 Inversin de Matrices
Si la inversa, A
-1
, de una matriz A se conoce, la solucin de un sistema Ax = b puede
escribirse x = A
-1
b. Podra entonces parecer conveniente determinar A
-1
, en especial si
se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin
embargo, la solucin puede ser obtenida con mucho menos operaciones y en general
con mucha ms precisin utilizando la descomposicin A = LU. La solucin de los dos
sistemas triangulares Ly = b y Ux = y requiere slo O(n
2
) operaciones (por cada
columna de b x). Por otro lado, la multiplicacin A
-1
b tambin demanda O(n
2
)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 14
operaciones. Sin embargo, la determinacin de A
-1
requiere aproximadamente el triple
de trabajo que para obtener L y U. El nmero de operaciones necesarias para obtener
la inversa de una matriz cuadrada (no simtrica) de orden n es 1 2
2 3
+ + n n n .
No obstante esto, en algunos casos se necesita la inversa en forma explcita. La inversa
puede obtenerse de un modo eficiente resolviendo n sistemas de ecuaciones lineales:
AX = I
n
, donde X = A
-1
. El siguiente ejemplo utiliza una variante del mtodo de Gauss
con este objeto:
|
|
|

\
|
=
4 1 3
3 1 2
1 1 1
A
En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la
derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las
filas las mismas operaciones que en A:
|
|
|

\
|
4 1 3
3 1 2
1 1 1

|
|
|

\
|
1 0 0
0 1 0
0 0 1

|
|
|

\
|

1 2 0
1 1 0
1 1 1

|
|
|

\
|

1 0 3
0 1 2
0 0 1

|
|
|

\
|

1 0 0
1 1 0
2 0 1

|
|
|

\
|

1 2 1
0 1 2
0 1 1

|
|
|

\
|
1 0 0
0 1 0
0 0 1

1
1 2 1
1 1 1
2 3 1

=
|
|
|

\
|

A
Alternativamente, si la descomposicin A = LU de una matriz A se conoce, la inversa
puede obtenerse de A
-1
= U
-1
L
-1
, tambin en O(n
2
) operaciones. Si en los cmputos
para L y U se hacen intercambios de filas, el producto U
-1
L
-1
resulta la inversa de una
cierta matriz A. La matriz A
-1
puede obtenerse a partir de (A)
-1
intercambiando
columnas en secuencia inversa a los cambios de fila durante el proceso.
Para la matriz antes considerada:
LU A =
|
|
|

\
|

|
|
|

\
|
=
|
|
|

\
|
1 0 0
1 1 0
1 1 1
1 2 3
0 1 2
0 0 1
4 1 3
3 1 2
1 1 1

La inversa de una matriz triangular es otra matriz del mismo tipo, fcil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L
-1
puede ser
obtenida por sustitucin directa o reduccin: LY = I
n
.
0 =
ij
y j i < (2.11a)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 15
|
|

\
|
=

=
1
1
i
j k
kj ik ij
ii
ij
y l
l
y j i (2.11b)
En forma anloga, la inversa, U
-1
, de una matriz triangular superior, U, es tambin una
matriz triangular superior. Cada fila i, puede determinarse mediante UZ = I
n
:
|
|

\
|
=

=
1
1
j
i k
kj ik ij
jj
ij
u z
u
z j i (2.12a)
0 =
ij
z j i > (2.12b)
Para las matrices L y U del ejemplo considerado:
|
|
|

\
|

=
|
|
|

\
|

=

1 0 0
1 1 0
2 1 1
1 2 1
0 1 2
0 0 1
1 1
U L
|
|
|

\
|

= =

1 2 1
1 1 1
2 3 1
1 1 1
L U A
2.5.6 Casos Especiales
Matrices Simtricas Definidas Positivas.
Para una matriz simtrica:
) 1 ( ) 1 (
kj jk
a a = . Si se efecta la reduccin de Gauss sin
intercambio de filas y/o columnas se tiene tambin que:
) ( ) ( i
kj
i
jk
a a = para j i < , n k .
En otras palabras, la sub matriz que debe an reducirse en un paso dado es tambin
simtrica. Esto puede probarse por induccin, teniendo en cuenta las condiciones
iniciales de simetra y adems que:
) (
) (
) (
) ( ) ( ) ( ) 1 ( i
ij
i
ii
i
ki i
kj
i
ij ki
i
kj
i
kj
a
a
a
a a l a a = =
+
(2.13a)
) (
) (
) (
) ( ) ( ) ( ) 1 ( i
ik
i
ii
i
ji
i
jk
i
ik ji
i
jk
i
jk
a
a
a
a a l a a = =
+
(2.13b)
Puede observarse que, si los coeficientes en la etapa i son simtricos, aquellos en la
etapa 1 + i tambin lo son, puesto que se obtienen operando del mismo modo con
nmeros iguales.
Considrese, por ejemplo, el sistema de ecuaciones con coeficientes simtricos:

|
|
|
|
|

\
|

0
0
1
0
5 4 1 0
4 6 4 1
1 4 6 4
0 1 4 5
4
3
2
1
x
x
x
x

En las sucesivas etapas del proceso de eliminacin, las sub matrices que quedan por
reducir siguen siendo simtricas:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 16

|
|
|
|
|

\
|

0
0
1
0
5 4 1 0
4 0
1 0
0 1 4 5
4
3
2
1
5
29
5
16
5
16
5
14
x
x
x
x

|
|
|
|
|

\
|

14
5
7
8
4
3
2
1
14
65
7
20
7
20
7
15
5
16
5
14
1
0
0 0
0 0
1 0
0 1 4 5
x
x
x
x

|
|
|
|
|

\
|

6
7
7
8
4
3
2
1
6
5
7
20
7
15
5
16
5
14
1
0
0 0 0
0 0
1 0
0 1 4 5
x
x
x
x
de donde

7
12
13
8
5
1
4
3
2
1
x
x
x
x

La simetra de la matriz por reducirse permite hacer:
) ( ) ( i
ii
i
ik ki
a a l = (utilizando
) (i
ik
a en
lugar de
) (i
ki
a ) y restringir los clculos de:
) ( ) ( ) 1 ( i
ij ki
i
kj
i
kj
a l a a =
+
a las columnas n j k ,
en lugar de n j i . El nmero de operaciones para la reduccin es entonces
) (
2
6
1
n O , aproximadamente la mitad que para el caso general.
Tambin los requerimientos de memoria pueden reducirse, almacenando los coeficientes
de la matriz en un arreglo monodimensional. Para el caso de una matriz simtrica de
alta densidad el siguiente esquema de numeracin de los coeficientes es apropiado:
|
|
|
|
|
|
|
|
|
|

\
|
+ ) 1 (
15
14 10
13 9 6
12 8 5 3
11 7 4 2 1
2
1
n n
M M
M M
M M
M M
M M
M M

Es evidente que intercambios de filas y columnas destruyen la simetra, a menos que se
tome siempre como pivote un elemento de la diagonal principal. Tales intercambios no
son necesarios si la matriz es definida positiva (x
T
Ax > 0 para x arbitraria, no nula), ya
que en tal caso:
0
) (
>
k
ii
a n k i , 1
) ( ) (
2
) ( k
jj
k
ii
k
ij
a a a n j i k , (2.14)
) ( ) 1 (
2
k
ii
k
ii
a a
+
n i k <
Estas condiciones garantizan que no se presentan pivotes pequeos.
Para el caso de matrices simtricas definidas positivas puede tambin utilizarse el
mtodo de Cholesky. ste mtodo efecta la descomposicin A = R
T
R, donde R es una
matriz triangular superior cuyos elementos pueden obtenerse (por filas) de:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 17
2
1
1
1
2
|
|

\
|
=

=
i
p
pi ii ii
r a r (2.15a)
L , 2 , 1
1
1
1
+ + =
|
|

\
|
=

=
i i j r r a
r
r
i
p
pj pi ij
ii
ij
(2.15b)
Para el ejemplo anterior se obtiene:
( ) = =
2
1
11 11
a r 2.2360
= =
11 12 12
r a r -1.7888
= =
11 13 13
r a r 0.44721
= =
11 14 14
r a r 0
( ) = =
2
1
2
12 22 22
r a r 1.6733
( ) = =
22 13 12 23 23
r r r a r -1.9123
( ) = =
22 14 12 24 24
r r r a r 0.5976
( ) = =
2
1
2
23
2
13 33 33
r r a r 1.4639
( ) = =
33 24 23 14 13 34 34
r r r r r a r -1.9518
( ) = =
2
1
2
34
2
24
2
14 44 44
r r r a r 0.9129
es decir:
|
|
|
|
|

\
|

=
9129 . 0 0 0 0
9518 . 1 4639 . 1 0 0
5976 . 0 9123 . 1 6733 . 1 0
0 4472 . 0 7888 . 1 2360 . 2
R
El sistema Ax = b puede entonces rescribirse como R
T
Rx = b o bien R
T
y = b; Rx = y
Resolviendo el primer sistema triangular:

=
2781 . 1
7808 . 0
5976 . 0
0
y
y finalmente:

=
7
12
13
8
5
1
x
Puede anotarse que R est relacionada con las L y U de Gauss mediante R
T
= LD;
R = D
1
U; donde D = diag ( )
nn
u u u L
22 11
.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 18
Matrices Banda.
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el mtodo de Gauss y otros
similares, ya que stos conservan la estructura de banda de las matrices: A = LU:
|
|
|
|
|
|

\
|

|
|
|
|
|
|

\
|

=
|
|
|
|
|
|

\
|

1 0 0 0 0
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 1 1
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 1 1
0 0 0 0 1
2 1 0 0 0
1 2 1 0 0
0 1 2 1 0
0 0 1 2 1
0 0 0 1 1

Ntese que A
1
= U
1
L
1
no es una matriz banda:
|
|
|
|
|
|

\
|
=

1 1 1 1 1
1 2 2 2 2
1 2 3 3 3
1 2 3 4 4
1 2 3 4 5
1
A
y por lo tanto no conviene hallar
1
A en forma explcita.
Particularmente simples de tratar son los sistemas con matrices banda simtricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:
) 21 ( ) 14 (
) 20 (
7
13 6
19 12 5
18 11 4
17 10 3
16 9 2
15 8 1
|
|
|
|
|
|
|
|
|

\
|




= A

Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un
nmero fijo de coeficientes en cada codiagonal, lo que facilita la programacin. Siendo
el ancho de la semibanda, m, mucho menor que el nmero de ecuaciones, n, las
posiciones de memoria perdidas son despreciables. Este esquema de almacenamiento
(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
Otra posibilidad es:
|
|
|
|
|
|
|
|
|

\
|




=
20
19 17
18 16 12
15 11 9
14 10 8 6
13 7 5 3
4 2 1
A


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 19
Esta forma de almacenamiento es ms eficiente cuando el ancho de banda es variable
(como ocurre en la mayor parte de los problemas reales). Se guardan los coeficientes
por columnas, desde el perfil superior a la diagonal principal. Se requiere un arreglo de
apuntadores o ndices que indican las posiciones ocupadas por los coeficientes de la
diagonal principal (que son los ms referidos durante el proceso de solucin). Ntese
que al aplicar el mtodo de Gauss (o cualquier variante de ese procedimiento) no se
producen valores significativos por encima del perfil original y por lo tanto no se requiere
ms memoria que aquella en la situacin inicial.
Se necesitan nm posiciones de memoria (donde n es el orden de la matriz y m << n el
ancho de semibanda), mucho menos que las n
2
posiciones para la matriz completa o las
( ) 1
2
1
+ n n para una matriz simtrica de alta densidad. Por otro lado, la reduccin de la
matriz de coeficientes demanda slo ( )
2
2
1
nm O operaciones, ya que:
0 =
ij
l excepto para m j i j + <
0 =
ij
u excepto para m i j i + <
Esto debe compararse con ( )
3
6
1
n O operaciones para reducir una matriz simtrica de
alta densidad. La reduccin del segundo miembro y la sustitucin inversa requieren
( ) nm O 2 , en lugar de ( )
2
n O operaciones. En la prctica, rara vez se tiene un ancho de
banda constante, pero an as estos estimadores son tiles, si se considera m como la
media cuadrtica de los anchos de semibanda en las ecuaciones.
Un caso especial es aquel en que la matriz de coeficientes es tridiagonal:

|
|
|
|
|
|
|
|

\
|


n
n
n
n
n n
n n n
c
c
c
c
c
x
x
x
x
x
a b
b a b
b a b
b a b
b a
1
3
2
1
1
3
2
1
1
1 1 2
3 3 2
2 2 1
1 1
M M O
(2.16)
Los nicos coeficientes significativos son aquellos de la diagonal principal y de dos
codiagonales, es decir, dos lneas paralelas a la referida diagonal.
Se observa que al descomponer la matriz de coeficientes, A, en sus factores triangulares
LU los factores mantienen la estructura banda:
|
|
|
|
|
|
|
|

\
|
|
|
|
|
|
|
|
|

\
|
=
|
|
|
|
|
|
|
|

\
|


n
n
n
n
n n
n n n
r
b
r
b r
b r
b r
q
q
q
q
a b
b a b
b a b
b a b
b a
1
4
3 3
2 2
1 1
1
2
2
1
1
1 1 2
3 3 2
2 2 1
1 1
1
1
1
1
1
O
O O O O

La determinacin de los
i
q y
i
r es muy simple:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 20
i i i i
i i i
b q a r
n , , i a / b q
a r
=
= =
=
+ + 1 1
1 1
1 2 1 L (2.17a)
y, considerando L y = c:
1 2 1
1 1
1 1
= =
=
+ +
n , , i y q c y
c y
i i i i
L
(2.17b)
de donde se obtiene x resolviendo U x = y:
1 2 1
1
, , n i r / ) x b y ( x
r / y x
i i i i i
n n n
L = =
=
+

Para resolver un sistema de n ecuaciones lineales con matriz de coeficientes tridiagonal
se requieren slo 4 5 n operaciones. Como se indic anteriormente, se cuenta como
una operacin la combinacin de una multiplicacin o divisin con una suma, resta o
almacenamiento del resultado.
Grandes sistemas de ecuaciones lineales
(con matrices de coeficientes banda, simtricas y definidas positivas).
Cuando la memoria de la computadora es insuficiente para almacenar todos los
coeficientes del sistema de ecuaciones, se recurre al disco. El acceso a este medio es
(en trminos relativos) muy lento y en lo posible debe tratar de minimizarse su uso.
Es frecuente subdividir la informacin de sistemas de ecuaciones excesivamente
grandes en bloques de una o ms ecuaciones (o columnas).
Los datos de cada bloque se almacenan en disco. stos son ledos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solucin del sistema de ecuaciones por el mtodo de Gauss (u otro similar)
requiere mantener en memoria principal la informacin de por lo menos dos bloques en
forma simultnea. As por ejemplo, durante el proceso de reduccin, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequea), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser ledos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitucin inversa.
2.6. Errores en la Solucin de
Sistemas de Ecuaciones Lineales
En la solucin prctica de grandes sistemas de ecuaciones lineales se realizan millones
de operaciones y en cada una ocurren errores de redondeo, Cmo afectan estos
errores a los resultados? Cmo puede estimarse la magnitud del error en la solucin?
Podra pensarse que, habiendo resuelto el sistema A x = b, la magnitud del residuo
r = b A x sea una buena medida del error introducido en x. !Esto es falso!
Considrese por ejemplo:
A =
|
|

\
|
659 . 0 913 . 0
563 . 0 780 . 0
b =
)
`

254 . 0
217 . 0


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 21
Y supngase que se ha resuelto A x = b obteniendo x
1
= (0.341 -0.087)
T
Qu tan
buena es esta solucin?
r
1
= b A x
1
= (10
-6
0)
T

Por otro lado si se afirma que la solucin es x
2
= (0.999 -1.001)
T
se obtiene el residuo.
r
2
= b A x
2
= (1.343x10
-3
1.572x10
-3
)
T

Es x
1
mejor solucin que x
2
? No. La solucin exacta es x = (1 -1)
T
.
Aunque la magnitud del vector residuo r = b A x no da una indicacin directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solucin.
Esto se discute ms adelante.
2.6.1 Normas de Vectores y Matrices
Con el propsito de discutir los errores al resolver sistemas de ecuaciones lineales, se
define como norma (o medida) de un vector:
+ + = p x x
p p p
p
1 ) (
/ 1
2 1
K x (2.18a)
Dos casos particulares son de inters:
2 / 1 2
2
2
1
2
) ( K + + = x x x (norma Euclidiana) (2.18b)
i
x mx =

x (mximo valor absoluto) (2.18c)


Es relativamente fcil probar que:
0 x slo hay igualdad si x = 0
x x a a = (2.19)
y x y x + +
Estas propiedades son familiares en relacin a la norma Euclidiana o longitud de un
vector.
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definicin de norma de un vector:
p
p
p
mx
x
x A
A = ( ) 0 x (2.20a)
La norma
2
A es
2 / 1
mx , donde
mx
es el mximo valor caracterstico de A
T
A (ver
captulo 3). Por otro lado:

=
n
1 j
ij
i
a mx A (2.20b)
Estas normas satisfacen condiciones similares a las normas de vectores. Adems:
B A B A (2.21)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 22
2.6.2 Condicionamiento de una matriz:
En esta ecuacin se analizan los efectos de una pequea perturbacin A en la matriz
A, o de una perturbacin b en b.
Si x es la solucin exacta de A

x = b, cuando se considera la matriz de coeficientes
A A + la solucin resulta x x + :
b x x A A = + + ) ( ) ( (2.22)
de donde:
) (
1
x x A A x + =


tomando normas:
x x A A x +
1

y dividiendo entre x x + :
( )
A
A
A
x x
x

+

(2.23)
donde ( )
1
= A A A K (2.24)
es el nmero de condicionamiento de la matriz A. Dado que
2 / 1
2
1

= mn A , donde
min es el menor valor caracterstico de la matriz A
T
A, puede escribirse:
( ) ( )
2 / 1
2
/ mn mx K = A (2.25)
Por otro lado: para una perturbacin b en b:
b b x x A + = + ) ( (2.26)
de donde:
b A x =
1

b A x
1

y dado que b = A x, lo que implica
A
b
x
se obtiene:
( )
b
b
A
x
x

K (2.27)
Las ecuaciones (2.23) y (2.27) indican que, si ( ) A K es grande, pequeos cambios en A
o en b pueden originar cambios importantes en la solucin.
Si se tienen errores relativos de orden tanto en A como en b, (2.23) y (2.27) pueden
combinarse, para escribir:
x A x ) ( 2 K (2.28)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 23
Los errores de redondeo introducidos en el proceso de solucin pueden ser
considerados como equivalentes a perturbaciones en las matrices A y b iniciales. ( ) A K
es tambin un buen indicador de los efectos de los errores de redondeo en la solucin.
La expresin (3) implica que si A y b estn dadas con t cifras significativas, el nmero de
cifras que puede esperarse sean correctas en la solucin, s, puede estimarse mediante:
[ ] ) ( log
10
A K t s (2.29)
Para el ejemplo precedente:

A = 0.913 + 0.659 = 1.572


adems: |

\
|

780 . 0 913 . 0
563 . 0 659 . 0
10
6 1
A
de donde

1
A = 0.913 x 10
6
+ 0.780 x 10
6
= 1.693 x 10
6

( )

=
1
A A A K = 1.572 x 1.693 x 10
6
= 2.7 x 10
6

Alternativamente, trabajando con normas Euclidianas:
|
|

\
|
=
751250 . 0 040807 . 1
0040807 . 1 441969 . 1
A A
T

cuyos valores caractersticos son mx = 2.1932, mn = 4.56 x 10
-13

de donde ( ) ( )
2 / 1
mn mx
2
/ = A K = 2.2 x 10
6

Ambos resultados indican un mal condicionamiento de la matriz A.
Note que en el ejemplo anterior la matriz A no era simtrica, por lo que fue necesario
evaluar los valores caractersticos de A A
T
. Si A fuera simtrica, los valores
caractersticos de A A
T
seran exactamente los cuadrados de los valores caractersticos
de A.
2.6.3 Errores de redondeo en la solucin de sistemas de ecuaciones lineales
por el mtodo de Gauss (y otros mtodos de eliminacin similares)
Las relaciones tericas utilizadas en la reduccin son:
) ( ) (
/
i
ii
i
ki ki
a a l =
) ( ) ( ) 1 ( i
ij ki
i
kj
i
kj
a l a a =
+
(2.30)
) ( ) ( ) 1 ( i
i ki
i
k
i
k
b l b b =
+

Sin embargo, como resultado de los errores de redondeo, los valores calculados (aqu
indicados en barras) satisfacen:
) 1 )( / (
1
) ( ) (
+ =
i
ii
i
ki
ki
a a l
) 1 ))( 1 ( (
3 2
) ( ) ( ) 1 (
+ + =
+ i
ij
ki
i
kj
i
kj a l a a (2.31)
) 1 ))( 1 ( (
5 4
) ( ) ( ) 1 (
+ + =
+ i
i
ki
i
k
i
k b l b b
donde
i
, siendo el mximo error relativo de redondeo. Alternativamente puede
escribirse:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 24
) (
) (
) (
/ ) (
i
ii
i
ki
i
ki
ki
a e a l + =
) (
) ( ) ( ) 1 (
i
kj
i
ij ki
i
kj
i
kj e a l a a + =
+
(2.32)
) (
) ( ) ( ) 1 (
i
k
i
i ki
i
k
i
k e b l b b + =
+

y puede probarse que:
) (
) (
i
ki
i
ki
a e

|

\
|

+ ) 1 ( ) (
) (
, . 3
i
kj
i
kj
i
kj
a a mx e
(2.33)
|

\
|

+ ) 1 ( ) (
) (
, . 3
i
k
i
k
i
k
b b mx c

Por otro lado, considerando que .
kj kj
a a =
) 1 (
, 1 =
kk
l , pueden utilizarse las expresiones
precedentes para escribir
kj
a en funcin de los
) 1 (
, ij ki a l . (es decir los elementos de las
matrices L y U). Se obtiene as:
( )

= =
= +
s
i
i
ij
ki
r
i
i
kj kj
a l e a
1
) (
1
(2.34a)
donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que
k k
b b =
) 1 (
, se
obtiene:
( )

=

=
= +
k
i
i
i ki
k
i
i
k k
b l c b
1
) (
1
1
(2.34b)
Esto demuestra que las matrices calculadas:
) ( ki l = L

) (
) (i
ij a = U

) (
) (i
i
b = y

No son factores exactos de A y b sino de A + A y b + b:
U L A A = +

y L b b = +
Los elementos de A son sumatorias de los
( ) i
kj
e ; los elementos de b son sumatorias
de los
( ) i
k
c . Las expresiones (4) dan una medida de estas perturbaciones. Obsrvese
que las expresiones (2.23) y (2.27) son aplicables tambin en este caso, y un valor de
) (A K alto indica que los errores de redondeo tendrn efectos importantes en la
solucin.
Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el
crecimiento de los
) (i
kj
a ,
) (i
k
b . Este es el propsito al realizar intercambios de filas y/o
columnas.
Finalmente, debe mencionarse que en el proceso de sustitucin inversa, para obtener x
resolviendo y x U = , los errores acumulados son despreciables en trminos relativos a
los que resultan de la reduccin.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 25
Las ecuaciones precedentes permiten una estimacin a-posteriori de la magnitud del
error. A-priori puede establecerse
(1)
:
) 1 (
,
) (
, ,
ij
j i
k
ij
k j i
n
a mx
a mx
g = (2.35)
teniendo que:
1
2

n
n
g para intercambio parcial (filas)
n 25 . 0
8 . 1
Ln
n
n g para intercambio total.
Estos lmites son tericos. Ntese por ejemplo que para un sistema de orden 100 se
tendra
29
10 3 . 6 x g
n
para intercambio parcial y 18
n
g para intercambio completo, lo
que justificara el trabajo adicional necesario para la segunda alternativa. Sin embargo,
en la prctica rara vez se observa un
n
g mayor que 10, an con intercambio parcial.
Para matrices simtricas definidas positivas se tiene que 1
n
g .
2.6.4 Algunas consideraciones relativas a unidades.
Equilibrio de las ecuaciones.
En un sistema de ecuaciones A x = b... los a
ij
, b
i
, x
j
pueden expresarse en diversos
sistemas de unidades. Un cambio de unidades equivale a considerar b = D
1
b; x = D
2
x
y por lo tanto (D
1
A D
2
) x == D
1
b. En estas expresiones las matrices D
1
y D
2
son
diagonales. Puede demostrarse que, si se utilizan los mismos pivotes y las D
1
y D
2
solo
contienen potencias enteras de la base del sistema de numeracin utilizado, los
resultados son los mismos (habida cuenta de los cambios de unidades).
Sin embargo las unidades utilizadas pueden afectar la seleccin de pivotes,
especialmente si slo se hace intercambio parcial.
En tal caso, es recomendable equilibrar las ecuaciones. Para las incgnitas deben
seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben
multiplicarse por factores D
1
tales que:
1
1
=

ij
n j
a mx i=1,2,3,...n
2.6.5 Mtodo iterativo para mejorar la solucin
Considrese el sistema de ecuaciones b Ax = para el que se tiene la solucin
aproximada
) 0 (
x . Si x es la solucin exacta, se tiene que:
) 0 ( ) 0 (
x x x + =

y entonces:
) 0 ( ) 0 (
r x A =

donde:

) 0 ( ) 0 (
Ax b r =

Al determinar .
) 0 (
x . se obtienen los factores triangulares aproximados L y U tales que
A A U L + = , siendo A pequeo. Esta descomposicin requiere aproximadamente
( )
3
3
1
n O operaciones.
A partir de
) 0 (
x puede determinarse
) 0 (
r en ( )
2
n O operaciones y resolverse:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 26
r z L =

z x U =

tambin en ( )
2
n O operaciones. Dado que L y U no son los factores exactos de A, y
adems se introducen nuevos errores de redondeo, es necesario iterar:
) ( ) ( i i
x A b r =

) ( ) ( i i
r z L =
(2.36)

) ( ) ( i i
z x U =

) ( ) ( ) 1 ( k k k
x x x + =
+

Pero nada se ganara si las operaciones se hicieran siempre con el mismo nmero de
cifras significativas empleadas en los cmputos originales. Si los
ij
a
i
b
i
x estn dados
con t dgitos, el cmputo de los residuos:

=
=
n
j
k
j ij i
k
i
x a b r
1
) ( ) (

debe hacerse con t 2 dgitos (para minimizar errores de cancelacin). Sin embargo, el
almacenamiento de los resultados puede hacerse en precisin simple, es decir, con t
dgitos.
Los vectores
) 1 (
x y
) 2 (
x permiten tambin estimar el nmero de condicionamiento:
( )
) 2 (
) 1 (
1
x
x
A


n
(2.37)

donde n es el orden del sistema y es el mximo error relativo de redondeo (al operar
en precisin simple). Si
) 1 (
x no es mucho menor que
) 1 (
x , o lo que es lo mismo,
si ( ) n A no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,
la nica alternativa sera operar con mayor precisin en toda la solucin.
Considrese, por ejemplo, el sistema de ecuaciones:

|
|
|

\
|
. 0
1
. 0
6 2 3
2 11 7
3 7 5
3
2
1
x
x
x

y supngase que la computadora opera en base 10 con 3 cifras significativas. La
factorizacin de la matriz de coeficientes, U L A = , resulta en:
|
|
|

\
|

|
|
|

\
|

=
|
|
|

\
|
17 . 0
20 . 2 20 . 1
00 . 3 00 . 7 00 . 5
00 . 1 83 . 1 60 . 0
00 . 1 40 . 1
00 . 1
6 2 3
2 11 7
3 7 5

De la reduccin del segundo miembro, es decir la solucin de b y L = se obtiene:
( )
T
83 . 1 00 . 1 00 . 0 = y

Finalmente por sustitucin inversa, es decir resolviendo y x U = , se determina
( )
T
x 8 . 10 6 . 20 3 . 35
) 1 (
=


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 27
Para esta solucin aproximada se tiene el residuo:
( )
T
100 . 0 100 . 0 100 . 0
) 1 ( ) 1 (
= = x A b r

El cmputo de los

j ij i
x a b deben hacerse en doble precisin, almacenndose los
resultados
i
r en precisin simple.
Resolviendo los dos sistemas triangulares:
) 1 (
r z L = y z x U =
) 1 (
se obtiene:
( )
T
195 . 0 391 . 0 685 . 0
) 1 (
= x

Y entonces:
( )
T
0 . 11 0 . 21 0 . 36
) 1 ( ) 1 ( ) 2 (
= + = x x x

(redondeado a 3 cifras significativas). Este resultado es mejor que
) 1 (
x (en este caso el
resultado es exacto, aunque debera decirse que por accidente).
Puede verificarse fcilmente que la matriz A del ejemplo anterior es bien condicionada.
Por otro lado, considrese nuevamente el sistema:
)
`

=
)
`

|
|

\
|
254 . 0
217 . 0
659 . 0 913 . 0
563 . 0 780 . 0
2
1
x
x

para el cual se obtuvo anteriormente ( ) A de orden 2 x 10
6
. Supngase que se opera
en base 10 con 6 cifras significativas:
|
|

\
|

|
|

\
|
=
|
|

\
|
6
10 3
000 563 . 0 000 780 . 0
000 00 . 1 051 17 . 1
000 00 . 1
659 . 0 913 . 0
563 . 0 780 . 0

se pierden cifras significativas en el elemento
22
a de esta ltima matriz al restar dos
nmeros que solo difieren en la ltima cifra almacenada). De aqu resultan:
( )
T
333 333 . 0 803 518 . 0
) 1 (
= x

( )
T
6 6 ) 1 (
10 692 . 0 10 139 . 0

= r

No obstante ser este residuo pequeo, se obtiene la correccin:
( )
T
433 176 . 0 348 127 . 0
) 1 (
= x

( )
T
900 156 . 0 455 391 . 0
) 1 ( ) 1 ( ) 2 (
= + = x x x

y es obvio que este resultado difiere ms de la solucin exacta ( )
T
1 1 = x que la
aproximacin
) 1 (
x antes obtenida. Para resolver este sistema de ecuaciones se
requiere trabajar con un mnimo de 8 cifras significativas!
2.7.Mtodos Iterativos para la Solucin
de Sistemas de Ecuaciones Lineales
En los acpites siguientes se tratan dos tipos distintos de mtodos iterativos. Estos
procesos pueden ser muy eficientes cuando la matriz de coeficientes, A , es de baja
densidad, ms an si la evaluacin de productos de la forma Av no requiere la previa
determinacin y el almacenamiento de A en forma explcita.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 28
2.7.1 Mtodos de Relajacin
Estos procedimientos son adecuados slo cuando la diagonal principal de la matriz de
coeficientes es dominante. En general, se considera una aproximacin inicial, tal como
0 x =
) 0 (
, y sta es sucesivamente mejorada hasta obtener una solucin suficientemente
precisa.
Considrese el sistema de orden n : b x A = , con 0
ii
a para todo i . En el mtodo de
Jacobi se calculan las aproximaciones L
) 3 ( ) 2 ( ) 1 (
, , x x x mediante:
|
|

\
|
=

+
i j
k
j ij i
ii
k
i
x a b
a
x
) ( ) 1 (
1
(2.38)
La aproximacin es arbitraria; con frecuencia 0 x =
) 0 (
. Si los
) 1 ( + k
i
x se determinan en el
orden habitual, al determinar
) 1 ( + k
r
x ya se han previamente obtenido las nuevas
aproximaciones
) 1 (
1
) 1 (
2
) 1 (
1
,
+

+ + k
r
k k
x x x L . Sin embargo, en el mtodo de Jacobi no se hace
uso de estas nuevas aproximaciones hasta la iteracin siguiente, difiriendo en esto del
mtodo de Gauss - Seidel:
|
|

\
|
=

+ =

=
+ +
n
i j
k
j ij
i
j
k
j ij i
ii
k
i
x a x a b
a
x
1
) (
1
1
) 1 ( ) 1 (
1
(2.39)
Ntese que slo se requiere almacenar las ltimas aproximaciones a los
i
x .
En el ejemplo siguiente se usan las dos alternativas:

|
|
|
|
|

\
|




75 . 2
1
75 . 2
1
5 1 1 0
1 5 0 1
1 0 5 1
0 1 1 5
4
3
2
1
x
x
x
x

La solucin exacta es
( )
T
50 . 0 25 . 0 50 . 0 25 . 0 = x

Con el mtodo de Jacobi se obtienen las sucesivas aproximaciones:
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x
0 0 0 0 0
1 0.2 0.55 -0.2 -0.55
2 0.27 0.48 -0.27 -0.48
3 0.242 0.508 -0.242 -0.508
4 0.2532 0.4968 -0.2532 -0.4968
5 0.24872 0.50128 -0.24872 -0.50128
6 0.250512 0.499488 -0.250512 -0.499488
7 0.249795 0.500205 -0.249795 -0.500205
8 0.250082 0.499918 -0.250082 -0.499918
9 0.249967 0.500033 -0.249967 -0.500033
10 0.250013 0.499987 -0.250013 -0.499987
11 0.249995 0.500005 -0.249995 -0.500005
12 0.250002 0.499998 -0.250002 -0.499998

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 29
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x
13 0.249999 0.500001 -0.249999 -0.500001
14 0.250000 0.500000 -0.250000 -0.500000
15 0.250000 0.500000 -0.250000 -0.500000
La convergencia es mejor con el mtodo de Gauss Seidel:
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x

0 0 0 0 0
1 0.2 0.59 -0.16 -0.464
2 0.286 0.5144 -0.2356 -0.49424
3 0.255760 0.502304 -0.247696 -0.499078
4 0.250922 0.500369 -0.249631 -0.499853
5 0.250147 0.500059 -0.249941 -0.499976
6 0.250024 0.500009 -0.249991 -0.499996
7 0.250004 0.500002 -0.249998 -0.499999
8 0.250001 0.500000 -0.250000 -0.500000
9 0.250000 0.500000 -0.250000 -0.500000
En algunos casos la convergencia puede acelerarse con sobrerelajacin:
) ( ) ( ) 1 ( k
i
k
i
k
i
r x x + =
+
(2.40a)
|
|

\
|
=

=

=
+
n
i j
k
j ij
i
j
k
j ij i
ii
k
i
x a x a b
a
r
) (
1
1
) 1 ( ) (
1
(2.40b)
El valor ptimo de depende de A e incluso de la aproximacin
) (k
x . Cuanto mayores
sean los valores absolutos de los trminos de la diagonal principal, respecto a la suma
de los valores absolutos de los restantes coeficientes de la misma fila, ms se aproxima
a 1. Para el ejemplo precedente, utilizando 05 . 1 = se obtienen:
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x

0 0 0 0 0
1 0.210000 0.621600 -0.165900 -0.481803
2 0.295197 0.507233 -0.240892 -0.497478
3 0.251172 0.500414 -0.249680 -0.499972
4 0.250096 0.500005 -0.249990 -0.499998
5 0.249998 0.500000 -0.250000 -0.500000
6 0.250000 0.500000 -0.250000 -0.500000
Estos mtodos no son necesariamente ms precisos que los procesos de eliminacin. El
ejemplo al inicio de la seccin 2.6 muestra que si el sistema es mal condicionado puede
aceptarse como correcta una solucin totalmente equivocada, pero con la que se tiene
un residuo pequeo.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 30
2.7.2 Convergencia
En esta seccin se analiza la convergencia de los mtodos de relajacin. Un paso tpico
en la solucin de b x A = puede escribirse como:
f x G x + =
+ ) ( ) 1 ( k k
(2.41)
Esto puede verse ms fcilmente si se considera la descomposicin:
( )
s i
T I T D A + + = (2.42)
donde D es una matriz diagonal, con elementos
ii
a ;
i
T y
s
T son matrices triangulares,
inferior y superior respectivamente, con ceros en la diagonal principal, cuyos coeficientes
son los
ii ij
a a . Por ejemplo:
(
(

|
|

\
|
+
|
|

\
|
+
|
|

\
|

|
|

\
|
=
|
|

\
|

0 0
0
1 0
0 1
0
0 0
2 0
0 2
2 1
1 2
2
1
2
1

Con esta notacin, para el mtodo de Jacobi se tiene:
( ) b D x T T x
1 ) ( ) 1 ( +
+ + =
k
s i
k
(2.43a)
es decir: ( )
s i
T T G + = (2.43b)
mientras que para el mtodo de Gauss-Seidel puede escribirse:
b D x T x T x
1 ) ( ) 1 ( ) 1 ( + +
+ =
k
s
k
i
k
(2.44a)
y por lo tanto: ( )
s i
T T I G
1
+ = (2.44b)
De modo similar, para el mtodo de sobre relajacin se tiene:
( ) ( ) [ ]
s i
T I T I G + =

1
1
(2.45)
Por otro lado, dado, que la solucin exacta, x , debe cumplir la ecuacin (2.41), se tiene
que:
f x G x + = (2.46)
y restando (2.46) de (2.41):
( ) ( ) x x G x x =
+ ) ( ) 1 ( k k
(2.47a)
de donde:
( ) ( ) ( ) ( ) x x G x x G x x G x x = = = =
+ + ) 0 ( 1 ) 1 ( 2 ) ( ) 1 ( k k k k
L (2.47b)
Adems, si
n
L
3 2 1
, , son los vectores caractersticos de la matriz G , a los que
corresponden los valores caractersticos
n
L
3 2 1
, , , puede escribirse:
( )
n n
+ + + + = L
3 3 2 2 1 1
) 0 (
x x
ya que los vectores caractersticos constituyen una base completa. Es relativamente
fcil probar que:
( ) ( )
n
k
n n
k k k k k
+ + + + = = L
3 3 3 2 2 2 1 1 1
) 0 ( ) (
x x G x x (2.47c)
Para tener convergencia:
( ) 0 x x =

) (k
k
Lim (2.48a)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 31
y por tanto se requiere 1 <
i
para todo i , o lo que es lo mismo:
( ) 1 =
i
i
mx G (2.48b)
( ) G se denomina el radio espectral de la matriz G .
Para k suficientemente grande el error se multiplica por ( ) G en cada paso, es decir se
tiene aproximadamente ( ) [ ] G
10
log cifras decimales exactas adicionales en cada
paso.
No es prctico determinar con gran precisin los valores caractersticos de G (esto
significara ms trabajo que resolver el sistema de ecuaciones), pero ciertos lmites
pueden ser fcilmente establecidos.
Para el mtodo de Jacobi:
ii ij ij
a a g = si j i (2.49a)
0 =
ii
g
y utilizando el teorema de Gerschgorin (vase el captulo relativo a la evaluacin de
valores y vectores caractersticos):
( )

=
j
ij
i
i
i
g mx mx G o bien

i
ji
j
g mx (2.49b)
con lo que la condicin de convergencia ( ) 1 G puede rescribirse:

=
>
n
j i
i
ij jj
a a
1

=
>
n
i j
j
ij ii
a a
1
(2.49c)
Estas son condiciones suficientes pero no necesarias. La convergencia es ms rpida
cuanto ms fuertes son las desigualdades.
Para el mtodo de Gauss Seidel ( ) ( ) [ ]
i i
i
s r mx = 1 G (2.50a)
donde:

+ =
>
n
i j ii
ij
i
a
a
r
1

=
>
1
1
i
j ii
ij
i
a
a
s (2.50b)
y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el mtodo de Jacobi (aunque en general el mtodo de Gauss -Seidel converge ms
rpidamente).
Un anlisis similar del mtodo de sobre relajacin permite establecer la condicin
adicional: 2 0 <
2.7.3 Mtodos de Mxima Gradiente y de Gradiente Conjugada
En la primera parte de esta seccin se consideran mtodos para la solucin de sistemas
de ecuaciones b x A = con matriz A simtrica y definida positiva, es decir, 0 > v A v
T

para todo vector v no nulo.
Considrese la funcin:
b x x A x x
T T
f =
2
1
) ( (2.51)
Si x es la solucin exacta de b x A = se tiene que:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 32
( ) ( )
( ) ( ) x x A x x
b x x A x b x x A x x x
=
=
T
T T T T
f f
2
1
2
1
2
1
) ( ) (

Pero, siendo A definida positiva: ( ) ( ) 0
2
1
x x A x x
T

Y por lo tanto 0 ) ( ) ( x x f f , es decir, ) ( ) ( x x f f (2.52)
La igualdad solo se da si x x = . La solucin de b x A = es entonces equivalente a una
minimizacin de ) (x f .
Dada la aproximacin inicial
) 0 (
x , a la que corresponden el residuo
) 0 ( ) 0 (
x A b r = y el
valor ) (x f , debe determinarse una nueva aproximacin,
) 1 (
x , tal que ) ( ) (
) 0 ( ) 1 (
x x f f < .
Para reducir el valor de ) (x f lo ms rpidamente posible, la correccin debe hacerse en
la direccin de mxima gradiente. Debe entonces determinarse esta direccin, z , tal
que:
0
) 0 (
) (
=
+

z x f
d
d

sea mxima (en valor absoluto). Siendo b x x A x x
T T
f =
2
1
) ( , puede escribirse:
) (
) ( ) ( ) ( ) (
) 0 ( ) 0 ( 2
2
1
) 0 ( ) 0 ( ) 0 (
2
1 ) 0 (
x r z z A z
b z x z x A z x z x
f
f
T T
T T
+ =
+ + + = +
(2.53a)
de donde:
) 0 (
0
) 0 (
) ( r z z x
T
f
d
d
= +

=

Esto significa que debe tomarse la direccin
) 0 (
r z = (2.53b)
Ahora puede determinarse
0
de modo que ) (
) 0 (
0
) 0 (
r x + f sea un mnimo.
Rescribiendo (2.53a) con
) 0 (
r z = y derivando con respecto a :
0 ) (
) 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0 (
= = +

r r r A r r x
T T
f
d
d

de donde:
) 0 ( ) 0 (
) 0 ( ) 0 (
0
r A r
r r
T
T
=
(dado que A es definida positiva, nunca se presenta el caso 0
) 0 ( ) 0 (
= r A r
T
)
Finalmente:
) 0 (
0
) 0 ( ) 1 (
r x x + =
El proceso puede repetirse en sucesivos ciclos:
) ( ) ( k k
x A b r = (2.54a)
) ( ) (
) ( ) (
k
T
k
k
T
k
k
r A r
r r
= (2.54b)
) ( ) ( ) 1 ( k
k
k k
r x x + =
+
(2.54c)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 33
Este mtodo es siempre convergente, pero no puede conocerse a priori en cuantos
ciclos se tendr la precisin requerida.
En los prrafos siguientes se estudia una modificacin de este proceso, el mtodo de
Gradiente Conjugada, para el que al menos en teora - puede garantizarse la
convergencia en un nmero de pasos igual o inferior al orden del sistema de ecuaciones.
Considrese el sistema de ecuaciones de orden n , b x A = . Dada una solucin
aproximada,
) 0 (
x , la solucin exacta, x , puede escribirse como:
x x x + =
) 0 (

x puede expresarse como combinacin lineal de n vectores linealmente
independientes. En particular, si se consideran vectores
1 2 2 1 0
, , ,
n n
s s s s s L , que
satisfacen las relaciones de ortogonalidad:
ij i j
T
i
c = s A s
puede escribirse:
1 1
) 1 ( ) (
) ( ) 1 (
1 1
) 1 ( ) 2 (
0 0
) 0 ( ) 1 (

+
+ = =
+ =
+ =
+ =
n n
n n
k k
k k
s x x x
s x x
s x x
s x x
L L
L L

alternativamente:

=
+ =
1
0
) 0 (
n
k
k k
s x x (2.55)
Suponiendo que los vectores
k
s son conocidos, los coeficientes
k
pueden obtenerse
utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:
( )

=
= = =
1
) ( ) ( ) (
n
i k
k k
i i i
s A x x A x A b r (2.56)
premultiplicando por
T
j
s se obtiene:
0
1
) (
= =

=
n
i k
k
T
j k
i T
j
s A s r s si i j < (2.57)
j
T
j j
s A s = si i j
de donde puede escribirse:
j
T
j
j T
j
j
s A s
r s
) (
= (2.58a)
Alternativamente, puede utilizarse
j
T
j
j
T
j
j
s A s
r r
) ( ) (
= (2.58b)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 34
La expresin alternativa ) ( ) (
) 0 (
j
T
j
T
j j
s A s r s = no es conveniente, por la acumulacin
de errores de redondeo.
Dado que los
1 2 2 1 0
, , ,
n n
s s s s s L son n vectores linealmente independientes en un
espacio n -dimensional, el error siempre puede ser expresado como una combinacin
lineal de estos vectores , es decir el proceso debera llegar a la solucin exacta (salvo
errores de redondeo) en n pasos.
El vector
1 + k
s se obtiene eliminando de
) 1 ( + k
r la componente segn
k
s A :
k k
k
k
s r s =
+
+
) 1 (
1
(2.59)
donde:
k
T
k
k T
k
k
s A s
r A s
) 1 ( +
= (2.60)
En el proceso de determinacin de pueden tenerse errores de cancelacin importantes si
son aproximadamente paralelos.
Es relativamente fcil probar que si
k
s s s s L
2 1 0
, , son A-ortogonales, entonces
1 + k
s
calculado con (2.59) resulta tambin A-ortogonal a todos los vectores previamente
hallados. Para empezar, con
k
s :
( ) ( ) 0
) 1 (
) 1 ( ) 1 (
1
= = =
+
+ +
+ k
T
k
k
T
k
T
k k T
k k k
k T
k k
T
k
s A s
s A s
r A s
r A s s r A s s A s
Por otro lado, de (2.57) se concluye que:
j
T
k
j
T
k
s A r s A s
) (
1
=
+

y

( )
) ( ) 1 (
1
j j
j
j
r r s A

=



y por lo tanto, para k j < :
0
1 1
) ( ) ( ) 1 ( ) (
1
= |

\
|

\
|

=

+
j
T
k
j
j
T
k
j
j
T
k
r r r r s A s
El mtodo de gradiente conjugada puede resumirse en los pasos siguientes:
Dado
) 0 (
x , determinar
) 0 (
0
) 0 (
x A b s r = =
Y luego para 1 2 , 1 , 0 = n k L :
k k
s A q =

(no se requiere A en forma explcita)

k
T
k
k
T
k
k
q s
r r
) ( ) (
=

k k
k k
s x x + =
+ ) ( ) 1 (
(2.61)

k k
k k
q r r =
+ ) ( ) 1 (

) ( ) (
) 1 ( ) 1 ( ) 1 (
k
T
k
k
T
k
k
T
k
k
T
k
k
r r
r r
q s
q r
+ + +
= =


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 35
k k
k
k
s r s =
+
+
) 1 (
1

Como ejemplo, considrese la solucin del sistema de ecuaciones b Ax = definido por:
|
|
|

\
|

=
2 1 0
1 2 1
0 1 2
A

=
4
0
0
b

Con la aproximacin inicial 0
) 0 (
= x se obtienen
:

) 0 (
0
) 0 (
x A b s r = =

( )
T
4 0 0

0 0
s A q =

( )
T
8 4 0

) ( ) (
0 0
) 0 ( ) 0 (
0
q s r r
T
T
=

1
/
2

0 0
) 0 ( ) 1 (
s x x + =

( )
T
2 0 0

0 0
) 0 ( ) 1 (
q r r =

( )
T
0 2 0

) ( ) (
0 0 0
) 1 (
0
q s q r
T
T
=

1
/
4

0 0
) 1 (
1
s r s =

( )
T
1 2 0

1 1
s A q =

( )
T
0 3 2

) ( ) (
1 1
) 1 ( ) 1 (
1
q s r r
T
T
=

2
/
3

1 1
) 1 ( ) 2 (
s x x + =

( )
T
3 8 3 4 0

1 1
) 1 ( ) 2 (
q r r =

( )
T
0 0 3 4

) ( ) (
1 1 1
) 2 (
1
q s q r
T
T
=

4
/
9

1 1
) 2 (
2
s r s =

( )
T
9 4 9 8 3 4

2 2
s A q =

( )
T
0 0 9 16

) ( ) (
2 2
) 2 ( ) 2 (
2
q s r r
T
T
=

3
/
4

2 2
) 2 ( ) 3 (
s x x + =

( )
T
3 2 1

El mtodo de gradiente conjugada puede ser generalizado para resolver cualquier
sistema de ecuaciones b x A = (con A no singular):
Con
) 0 (
x arbitrario, se obtiene
) 0 (
0
) 0 (
x A b s r = =
Y luego para 1 2 , 1 , 0 = n k L :
k
T
k
s A q =

(no se requiere A en forma explcita)

k
T
k
k
T
k
k
q q
r r
) ( ) (
=

k k
k k
q x x + =
+ ) ( ) 1 (
(2.62)


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 36
k k
k k
q A r r =
+ ) ( ) 1 (

) ( ) (
) 1 ( ) 1 (
k
T
k
k
T
k
k
r r
r r
+ +
=

k k
k
k
s r s =
+
+
) 1 (
1

2.8 Sistemas Sobre-Determinados de Ecuaciones Lineales
El problema de determinacin de los parmetros de un modelo lineal para aproximar un
conjunto de datos es frecuente. A fin de reducir la influencia de errores de medicin, es
habitual hacer ms mediciones que las estrictamente necesarias, de donde resultan ms
ecuaciones que incgnitas.
Dada una matriz A de orden n m ( n m> ) y un vector b de orden m , se requiere
determinar x de modo tal que x A sea la mejor aproximacin posible a b .
Un proceso simple (y muy adecuado si los errores en los
i
b son estadsticamente
independientes) es el mtodo de mnimos cuadrados, que consiste en minimizar la
magnitud del residuo x A b r = (o minimizar r r r
T
=
2
) con respecto a las x . Dado
que:
x A A x b A x b b r r
T T T T T T
f + = = 2 (2.63)
y por lo tanto:
0 x A A b A
x
= + =

T T
f
2 2

el mtodo de mnimos cuadrados puede formularse como la solucin del sistema de
ecuaciones normales:
( ) b A x A A
T T
= (2.64)
Si ( )
n
a a a a A L
3 2 1
= , la matriz simtrica A A C
T
= tiene elementos
j
T
i ij
c a a = .
La matriz C es no singular slo si todas las columnas
k
a de la matriz A son
linealmente independientes.
Para formar las ecuaciones normales se requieren ( ) 3
2
1
+ n mn operaciones. Para
resolver el sistema ( )
3
6
1
n O operaciones. La mayor parte del trabajo est en formar las
ecuaciones normales.
Considrese por ejemplo

|
|
|
|
|
|
|
|

\
|

1
2
1
3
2
1
1 0 1
1 1 0
0 1 1
1 0 0
0 1 0
0 0 1
3
2
1
x
x
x

las ecuaciones normales son en este caso:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 37

|
|
|

\
|



6
1
1
3 1 1
1 3 1
1 1 3
3
2
1
x
x
x

de donde:
( )
T
3 75 . 1 25 . 1 = x
Un mtodo alternativo (y numricamente mejor condicionado) se basa en al
descomposicin de la matriz de coeficientes, A, en el producto de una matriz ortogonal,
Q, y una matriz triangular superior, R (en el captulo relativo a valores y vectores
caractersticos se describen procedimientos que pueden ser empleados para esto).
Al tenerse R Q A = (2.65)
las ecuaciones normales ( ) b A x A A
T T
= pueden rescribirse:
( ) 0 = Ax b A
T

( ) 0 = x R Q b Q R
T T

y dado que I Q Q =
T
se obtiene:
( ) 0 = x R b Q R
T T

La matriz R no es singular y por tanto:
b Q x R
T
= (2.66)
La matriz R es la misma que se obtendra al descomponer A A
T
en dos factores
triangulares por el mtodo de Cholesky. Para el ejemplo precedente:
|
|
|

\
|


|
|
|
|
|
|
|
|

\
|

= =
|
|
|
|
|
|
|
|

\
|

=
4142 . 1 0 0
8165 . 0 6330 . 1 0
5774 . 0 5774 . 0 7321 . 1
3536 . 0 2041 . 0 5774 . 0
3536 . 0 6124 . 0 0
0 4082 . 0 5774 . 0
7071 . 0 0 0
3536 . 0 6124 . 0 0
3536 . 0 2041 . 0 5774 . 0
1 0 1
1 1 0
0 1 1
1 0 0
0 1 0
0 0 1
QR A
de donde:

= =

|
|
|

\
|


=
2426 . 4
4082 . 0
5774 . 0
4142 . 1 0 0
8165 . 0 6330 . 1 0
5774 . 0 5774 . 0 7321 . 1
3
2
1
b Q x R
T
x
x
x

y finalmente: ( )
T
3 75 . 1 25 . 1 = x

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 1
3. Valores y Vectores Caractersticos
3.1. Introduccin
El producto de una matriz cuadrada, A, por un vector (matriz columna), x, es otro vector,
cuyas componentes son habitualmente no proporcionales a x. Sin embargo, puede
existir un vector no nulo tal que:
A = (3.1a)
Se dice entonces que es un vector caracterstico (tambin llamado vector propio,
eigenvector o modo) de la matriz A. El correspondiente escalar es un valor
caracterstico (tambin llamado valor propio, autovalor o eigenvalor). Ntese que si un
vector satisface las ecuaciones (3.1a) tambin un mltiplo arbitrario (un vector "paralelo")
es solucin. Sin embargo, se trata esencialmente de la misma solucin; los vectores
caractersticos slo se califican como distintos si sus componentes no son
proporcionales.
Por ejemplo,
)
`

=
)
`

|
|

\
|

1
1
1
1
1
2 1
1 2

)
`

=
)
`

|
|

\
|

1
1
3
1
1
2 1
1 2

en este caso
)
`

=
1
1
1
y
)
`

=
1
1
2
son vectores caractersticos, a los que corresponden
los valores propios 1 y 3, respectivamente. Otros vectores, no paralelos a los dos antes
mencionados, no cumplen la condicin (3.1a):
)
`

=
)
`

|
|

\
|

3
0
2
1
2 1
1 2

El vector
)
`

3
0
no puede expresarse como un mltiplo de
)
`

2
1
.
El problema clsico de valores y vectores caractersticos consiste en la determinacin de
los vectores y los correspondientes escalares para los que se cumple (3.1a). Con
frecuencia se presenta el problema general:
A = B (3.1b)
En muchas aplicaciones las matrices A y B son simtricas y definidas positivas. En
algunos casos se hacen hiptesis simplificadoras que resultan en B diagonal. El
problema clsico, definido en (3.1a), corresponde al caso particular B = I.
3.1.1 Conversin del Problema General a la Forma Clsica
Un problema de la forma general (3.1b) puede convertirse a otro equivalente de la forma
clsica (3.1a). As por ejemplo, si B es no singular puede determinarse:
B
-1
A = (3.2)

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 2
Sin embargo, si A y B son simtricas (como es, por ejemplo, el caso en problemas de
vibracin, en los que esas matrices son respectivamente rigideces y masas) conviene
ms hacer la descomposicin (Cholesky):
B = R
T
R (3.3a)
y efectuar entonces el cambio de variables
= R
-1
z (3.3b)
con lo que se obtiene:
(R
-1
)
T
A R
-1
z = z (3.3c)
Esto es particularmente fcil si B es diagonal.
B = B


= B
-
z (3.4)
B
-
A B
-
z = H z = z
Donde
j i
ij
ij
b b
a
h = .
Ntese que los valores caractersticos son los mismos que los del problema original; los
correspondientes vectores caractersticos se relacionan mediante (3.4b).
3.1.2 Polinomio Caracterstico y Valores Propios
Las ecuaciones A = B pueden tambin rescribirse como:
(A - B) = 0 (3.5a)
que tiene soluciones no triviales slo si la matriz (A - B) es singular, es decir, si:
( ) ( ) 0 det = = B A p (3.5b)
( ) p se denomina polinomio caracterstico. Siendo A y B matrices cuadradas de orden
n, ( ) p es un polinomio de grado n, cuyas races son
1
,
2
,


n
. En lo que sigue se
supone, sin perder generalidad, que:
n

3 2 1

3.1.3 Independencia Lineal de los Vectores Caractersticos
Asociado a cada uno de los n valores caractersticos
i
se tiene un vector
i
. Si
i
es
una raz de multiplicidad m, el correspondiente vector
i
puede obtenerse resolviendo el
sistema de ecuaciones homogneas: (A -
i
B)
i
= 0 suponiendo m componentes
arbitrarias en
i
.
Los vectores caractersticos correspondientes a valores caractersticos distintos son
linealmente independientes. Supngase que ste no fuera el caso, pudindose obtener
uno de los vectores como combinacin lineal de otros que s son linealmente
independientes:

=
=
j
i
i i s
c
1
(3.6a)
Y entonces:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 3

= =
= =
j
i
i i
j
i
i i s
c c
1 1
(3.6b)
Por otro lado, por la definicin del problema, (3.1b):

=
= =
j
i
i s i s s s
c
1
(3.6c)
Restando (3.6b) de (3.6c) se obtiene: ( ) 0 =

=
j
i
i i s i
c
1

Si
i s
debera entonces tenerse c
i
= 0 para todo i, lo que se opone a la hiptesis.
Excepcionalmente pueden presentarse valores caractersticos repetidos. An en este
caso es factible obtener vectores caractersticos linealmente independientes. Sin
embargo, el conjunto de vectores asociados a los valores caractersticos repetidos define
un subespacio, tal que cualquier vector del subespacio (es decir una combinacin lineal
de aquellos tomados como base) es tambin un vector caracterstico:
A
i
=
i
B
i

A
i
=
i
B
i
(3.7)
A ( c
1

1
+ c
2

2
+ c
3

3
+ ) =
i
B ( c
1

1
+ c
2

2
+ c
3

3
+ )
Tenindose n vectores caractersticos linealmente independientes de dimensin n, estos
constituyen una base completa. Cualquier otro vector de tal dimensin puede
expresarse como combinacin lineal de los vectores caractersticos:
v =
1

1
+
2

2
+
3

3
+ +
n

n
(3.8)
Por ejemplo, con los vectores caractersticos antes obtenidos:
)
`

)
`

=
)
`

1
1
1
1
2
1
2
1
2
3

3.1.4 Ortogonalidad de los Vectores Caractersticos
Si las matrices A y B son Hermitianas (o simplemente simtricas) y definidas positivas,
los valores caractersticos de A =

B son todos reales y positivos. Para probar
esto basta considerar:
r s r r s
B
* *
= (3.9a)
s r s s r
B
* *
= (3.9b)
El superndice * denota aqu conjugada traspuesta. La conjugada transpuesta de la
segunda de estas expresiones es (recurdese que
s
es un escalar):
r s s r s
B
* * *
= (3.9c)
y al ser A y B Hermitianas (es decir A* = A y B* = B), restando (3.9c) de (3.9a) se
obtiene:
( ) 0
* *
=
r s s r
B
(3.9d)
Si r=s, al ser B una matriz definida positiva se tendra 0 >
r r
B
*
. Por lo tanto, siendo
s r
= , se tendra 0 =
*
r r
lo que implica que todos los son nmeros reales. Si

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 4
adems A es definida positiva, es decir 0 >
r r
A
*
, se concluye que los valores
caractersticos son todos positivos.
Por otro lado, si
s r
se tiene que 0
*
s r
y en consecuencia (3.9d) implica que:
rs r r s
b = B
*
(es decir, cero si s r ) (3.10a)
y adems, observando las expresiones precedentes:
rs r r s
a = A
*
(3.10b)
Las propiedades de ortogonalidad expresadas en (3.10) son la base para la
descomposicin modal utilizada al resolver sistemas de ecuaciones diferenciales en
aplicaciones tales como el anlisis ssmico lineal.
Refirindose nuevamente al ejemplo inicial:
( ) 2
1
1
2 1
1 2
1 1 =
)
`

|
|

\
|


( ) 6
1
1
2 1
1 2
1 1 =
)
`

|
|

\
|


( ) 0
1
1
2 1
1 2
1 1 =
)
`

|
|

\
|


3.1.5 Normalizacin de los Vectores Caractersticos
Como se mencion anteriormente los vectores caractersticos se definen por la
proporcin de sus elementos, pudindose escalar o "normalizar" en forma arbitraria. Es
frecuente escalarlos de modo que:
rs r s
= B
*
(3.11a)
Se dice entonces que los vectores estn normalizados respecto a la matriz B. En tal
caso se tiene tambin:
rs r r s
= A
*
(3.11b)
3.1.6 Cociente de Rayleigh
Si se conoce un vector caracterstico
i
, el correspondiente valor
i
puede determinarse
con el cociente de Rayleigh:
( )
i
T
i
i
T
i
i



B

= (3.12)
Esta expresin puede aplicarse tambin con aproximaciones a los vectores propios. Si x
es una aproximacin a un vector caracterstico con un error de orden , el cociente de
Rayleigh, (x), aproxima el correspondiente valor caracterstico con un error de orden
2
.
3.1.7 Teorema de Gershgorin
Supngase que
i
es un valor caracterstico de la matriz A y que
i
es el
correspondiente vector, con componentes L
3 2 1
v v v :

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 5
i i i
= A (3.13a)
La componente de mayor valor absoluto en
i
es
s
v . Dividiendo la ecuacin s en (3.13a)
entre
s
v e intercambiando ambos miembros:
|
|

\
|
+ + + +
|
|

\
|
+
|
|

\
|
=
s
n
sn ss
s
s
s
s i
v
v
a a
v
v
a
v
v
a L L
2
2
1
1
(3.13b)
y por lo tanto:
sn s s ss i
a a a a + + + + + = L L 0
2 1
(3.13c)
En consecuencia, cada valor caracterstico
i
est dentro de por lo menos uno de los
crculos con centro en
ss
a y radio igual a la suma de los valores absolutos de la
correspondiente fila s.
Por ejemplo, considerando la matriz:
|
|

\
|

=
4 1
1 2
A
que es definida positiva, puede asegurarse que sus valores caractersticos (que son
nmeros reales) estn dentro de los intervalos (1,3) y (3,5). Efectivamente, en este caso
2 3 = .
3.1.8 Formas polinmicas
Supngase que se conocen los valores y vectores caractersticos de una matriz, A:
A = (3.14a)
Cules son los valores caractersticos de la matriz A
2
= A A?
(AA) = A (A ) = A ( ) = (A )=
2

Este resultado puede extenderse para la matriz A
k
(siendo k un exponente). Los
vectores caractersticos son los mismos que los de la matriz A, mientras que los
correspondientes valores caractersticos son
k
:
A
k
=
k
(3.14b)
Esto es incluso vlido para exponentes negativos. Por ejemplo, multiplicando ambos
miembros de (3.15a) por
-1
A
-1
se obtiene:
A
-1
=
-1
(3.14c)
Por otro lado, combinando linealmente expresiones de la forma (3.14b) y teniendo en
cuenta que A
0
= I (as como
0
= 1):
(c
0
I+ c
1
A+ c
2
A
2
+ c
3
A
3
+...) = (c
0
+ c
1
+ c
2

2
+ c
3

3
+...)

(3.14d)
Por ejemplo, si:
|
|

\
|

=
2 1
1 2
A
tiene valores caractersticos 1 y 3, la matriz:
|
|

\
|

= =
5 4
4 5
2
AA A

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 6
tiene valores caractersticos 1 y 9 (es decir, los cuadrados de 1 y 3). Los vectores
caractersticos son los mismos para ambas matrices.
3.2 Mtodos de Iteracin con Vectores
Los mtodos que se presentan en esta seccin son los ms eficientes cuando slo se
requieren un valor caracterstico y su vector asociado, o en todo caso cuando el nmero
de valores y vectores caractersticos por determinar es pequeo.
3.2.1 Iteracin Directa
En la iteracin "directa" se considera un vector inicial
0
x y se obtiene una secuencia de
vectores corregidos,
k
x , mediante:
j j
x A x B =
+1
(3.15a)
1
1
1
+
+
+
=
j
j
j
r
x
x (3.15b)
donde r
j+1
es un escalar que normaliza el vector utilizado en la iteracin. Lo habitual es
tomar r
j+1
como el elemento de mximo valor absoluto en
1 + j
x , lo que significa escalar el
vector de aproximacin de modo que la mayor componente sea igual a 1..
Este proceso converge al vector caracterstico
n
, asociado al valor caracterstico de
mayor mdulo,
n
. En efecto, la aproximacin inicial x
0
puede escribirse como:
x
0
=
1

1
+
2

2
+
3

3
+ +
n-1

n-1
+
n

n
(3.16a)
Recurdese que los n vectores caractersticos son linealmente independientes y
constituyen una base completa en el espacio de dimensin n. Entonces (suponiendo
que B no es singular):

= =
i i i i i
B A x A
0
(3.16b)
0
1
1
Ax B x

= = (
1

1
)
1
+ (
2

2
)
2
+ + (
n

n
)
n
(3.16c)
y por lo tanto:
( )

=
n
i i
r
1
1
1
x
i
(3.16d)
Se observa que, si las componentes de x
0
eran
i
, aquellas de x
1
resultan proporcionales
a
i

i
. Repitiendo pasos anlogos a los indicados en (3.18), puede comprobarse que la
aproximacin x
k
puede expresarse como combinacin lineal de los vectores
caractersticos con coeficientes proporcionales a
k
i i
(en este caso k es un exponente).
En consecuencia, si
1 2 1


L
n n n
, las componentes segn
n
crecen
ms rpidamente que las otras y se tiene que:
=

k
k
Lim x
n
(3.17a)
n k
k
r Lim =

(3.17b)
Esto es vlido an cuando
n
= 0 puesto que, por lo menos al tratar con grandes
matrices, los errores de redondeo (debidos a la aritmtica imperfecta del computador)
introducen siempre una componente segn
n
. La convergencia es muy rpida si

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 7
1
>>
n n
o si x
0
es aproximadamente paralelo a
n
(es decir, si la componente
n

es importante en relacin a las dems). En cambio, si los ltimos valores caractersticos
son similares la convergencia es en general muy lenta. Por otro lado, no se tienen
dificultades para el caso (ms acadmico que prctico) en que
1
=
n n
: en tal caso el
proceso converge a un vector caracterstico que resulta ser la proyeccin de x
0
en el
subespacio definido por los vectores
n
y
n-1
.
Considrese por ejemplo el problema A = B con las matrices:
|
|
|

\
|

=
1 1 0
1 3 2
0 2 5
A
|
|
|

\
|
=
3 0 0
0 2 0
0 0 1
B
An cuando en este caso se tienen matrices simtricas, el procedimiento descrito se
aplica a matrices cuadradas cualesquiera.
En este caso se obtienen:
k x
k
Ax
k

1 + k
x r
k+1


(x
k+1
)
0 1.00000 5.00000 5.00000 5.00000
0.00000 -2.00000 -1.00000
0.00000 0.00000 0.00000 5.481481
1 1.00000 5.40000 5.40000 5.40000
-0.20000 -2.60000 -1.30000
0.00000 0.20000 0.06667 5.502594
2 1.00000 5.48148 5.48148 5.48148
-0.24074 -2.73457 -1.36728
0.01235 0.25309 0.08436 5.503559
3 1.00000 5.49887 5.49887 5.49887
-0.24944 -2.76370 -1.38185
0.01539 0.26483 0.08828 5.503603
4 1.00000 5.50259 5.50259 5.50259
-0.25130 -2.76994 -1.38497
0.01605 0.26735 0.08912 5.503605
5 1.00000 5.50339 5.50339 5.50339
-0.25169 -2.77128 -1.38564
0.01620 0.26789 0.08930 5.503605
6 1.00000 5.50356 5.50356 5.50356
-0.25178 -2.77156 -1.38578
0.01623 0.26801 0.08934 5.503605
El procedimiento converge al valor caracterstico:
3
=

01623 . 0
25180 . 0
00000 . 1

que corresponde al valor caracterstico de mayor mdulo,
3
= 5.503605.

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 8
El valor de r es aproximadamente
n
, pero el cociente de Rayleigh, (x)" proporciona
siempre una aproximacin mejor.
3.2.2 Iteracin Inversa
El proceso de iteracin directa antes descrito converge al vector caracterstico asociado
al valor caracterstico de mayor mdulo. ste puede ser til al considerar el
condicionamiento de las matrices de coeficientes en grandes sistemas de ecuaciones, o
al analizar la estabilidad numrica de ciertos mtodos para integrar sistemas de
ecuaciones diferenciales, pero por lo general tiene poca importancia en la respuesta del
sistema estudiado. Para determinar la respuesta de un sistema se requieren ms bien
los valores caractersticos de menor mdulo y sus vectores asociados.
Para determinar el vector caracterstico asociado al valor propio de menor mdulo (el
modo fundamental) puede usarse una "iteracin inversa":
j j
x B x A =
+1
(3.18a)
1
1
1
+
+
+
=
j
j
j
r
x
x (3.18b)
En este caso si:
x
0
=
1

1
+
2

2
+
3

3
+ +
n-1

n-1
+
n

n
(3.19a)
la aproximacin x
k
puede expresarse como combinacin lineal de los vectores
caractersticos con coeficientes proporcionales a
k
i i
(nuevamente, k es aqu un
exponente):
x
k
=
k
1
1


1
+

k
2
2


2
+

k
3
3


3
+ +

k
n
n
1
1


n-1
+

k
n
n


n
(3.19b)
En consecuencia, si
n

3 2 1
al emplear la iteracin inversa se tiene
que:
=

k
k
Lim x
1
(3.20a)
1
1

=

k
k
r Lim (3.20b)
Los comentarios anteriores relativos a la convergencia de la iteracin directa son
tambin vlidos. En este caso la velocidad de convergencia depende de la razn
2
/
1
.
Para las matrices del caso anterior y considerando, por ejemplo, el vector inicial:

=
2
1
0
0
x
se obtiene el vector asociado al valor caracterstico de menor mdulo, es decir,
1
.
Ntese que r es ahora una aproximacin de 1 /
1
, mientras que en la iteracin directa lo
era de
n
. Tambin en este caso se observa que el cociente de Rayleigh es siempre una
mejor aproximacin al valor caracterstico.

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 9
k x
k
Bx
k

1 + k
x r
k+1


(x
k+1
)
0 0.00000 0.00000 2.66667 12.66667
1.00000 2.00000 6.66667
2.00000 6.00000 12.66667 0.154734
1 0.21053 0.21053 1.42105 6.44737
0.52632 1.05263 3.44737
1.00000 3.00000 6.44737 0.154625
2 0.22041 0.22041 1.42993 6.46463
0.53469 1.06939 3.46463
1.00000 3.00000 6.46463 0.154624
3 0.22119 0.22119 1.43102 6.46696
0.53594 1.07187 3.46696
1.00000 3.00000 6.46696 0.154624
4 0.22128 0.22128 1.43116 6.46727
0.53610 1.07221 3.46727
1.00000 3.00000 6.46727 0.154624
5 0.22129 0.22129 1.43118 6.46731
0.53613 1.07225 3.46731
1.00000 3.00000 6.46731 0.154624
6 0.22129 0.22129 1.43118 6.46731
0.53613 1.07226 3.46731
1.00000 3.00000 6.46731 0.154624

En muchas aplicaciones B es diagonal y A no lo es, por lo que la iteracin directa es
ms simple. Sin embargo, un paso tpico de la iteracin inversa requiere
aproximadamente el mismo nmero de operaciones que un paso de iteracin directa.
Supngase que se tienen matrices de orden n y que A es una matriz de alta densidad
(es decir, con pocos coeficientes no significativos). El nmero de operaciones
requeridas para efectuar el producto Ax es de orden n
2
. Aqu se cuenta como una
"operacin" la combinacin de una multiplicacin o divisin con una suma o resta.
Tambin se ha supuesto que n es grande, por lo que n
2
es mucho mayor que n. La
divisin de Ax entre los coeficientes (de la diagonal principal) de B requiere un nmero
de operaciones de orden n, que puede despreciarse. Es interesante observar que si
previamente se realiz (una sola vez) la factorizacin A = LU, la solucin del sistema de
ecuaciones Ax = b requiere tambin un nmero de operaciones de orden n
2
, mientras
que el producto Bx demanda slo n operaciones. Por otro lado, si la matriz A es de baja
densidad y tiene un ancho de semibanda promedio m, tanto un producto de la forma Ax
como la solucin de las ecuaciones Ax = b requieren aproximadamente mn operaciones.
3.2.3 Traslacin
La velocidad de convergencia de la iteracin inversa depende de las razones 1 /
i
. Si
1 2
la convergencia es lenta; siendo en cambio muy rpida si
2 1
<< . La
convergencia puede acelerarse mediante una "traslacin"
1
:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 10
A = B (3.21a)
(A - B) = () B (3.21b)
Ntese que el nuevo sistema (3.21b) tiene los mismos vectores caractersticos que el
sistema original (3.21a) y valores caractersticos
i
- . Desde el punto de vista del
polinomio caracterstico, se ha trasladado el origen:
-50
0
50
100
150
0 1 2 3 4 5 6 7

p
(

)

Si
1
puede lograrse que:

>>
2 1

y por tanto:


<<

2 1
1 1
,

con lo que la convergencia mejora en forma apreciable.
Para el ejemplo anterior, efectuando una traslacin = 0.154 se tiene:
|
|
|

\
|

=
538 . 0 1 0
1 692 . 2 2
0 2 846 . 4
154 . 0 B A
y por iteracin inversa:
k x
k
Bx
k

1 + k
x r
k+1


(x
k+1
)
0 0.00000 0.00000 692.29 3129.01
1.00000 2.00000 1677.41
2.00000 6.00000 3129.01 0.000624
1 0.22125 0.22125 354.79 1603.26
0.53608 1.07216 859.55
1.00000 3.00000 1603.26 0.000624
2 0.22130 0.22130 354.80 1603.29
0.53613 1.07226 859.57
1.00000 3.00000 1603.29 0.000624
Se obtienen:
1
= 0.154 + 0.000624 = 0.154624 y
1
=

00000 . 1
53613 . 0
22129 . 0
.
El siguiente algoritmo usa el cociente de Rayleigh para efectuar la traslacin. Iniciando
el proceso con
0 0
x B y = y
0
= 0:
( )
k k k
y x B A =
+1


H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 11
1 1 + +
=
k k
x B y

1 1
1
1
+ +
+
+
+ =
k
T
k
k
T
k
k k
y x
y x
(3.22)
( )
1
2
1
1 1 1 +

+ + +
=
k k
T
k k
y y x y
En relacin con las expresiones precedentes:
B y =

k
k
Lim
1
(3.23a)
1
=

k
k
Lim (3.23b)
La convergencia es cbica.
3.2.4 Determinacin de Otros Vectores Caractersticos
En los prrafos precedentes se ha visto cmo mediante iteracin directa o inversa
pueden obtenerse
n
o
1
respectivamente. Podra determinarse un valor caracterstico
intermedio y su vector asociado por iteracin inversa con una traslacin adecuada; sin
embargo, esto requerira un procedimiento previo para definir la traslacin.
En los que sigue se describe la determinacin de sucesivos vectores caractersticos
aprovechando las condiciones de ortogonalidad para el caso en que las matrices A y B
son simtricas. La idea bsica consiste en iterar con vectores ortogonales a los
previamente obtenidos. Desafortunadamente, el proceso acumula los errores de los
vectores previos y cada nuevo vector se determina siempre con menos precisin que el
anterior. En la prctica se observa que se pierde una cifra significativa por cada nuevo
vector; por tanto, no es factible determinar por este mtodo ms de unos 10 vectores
caractersticos. En algunas aplicaciones esto puede no ser suficiente.
A partir de un vector arbitrario:
v =
1

1
+
2

2
+
3

3
+ ... +
n

n
(3.24a)
puede obtenerse un vector ortogonal a los vectores caractersticos ya conocidos
haciendo uso de las relaciones de ortogonalidad:

i
T
B v =
1

i
T
B
1
+
2

i
T
B
2
+ ... +
n

i
T
B
n


i
T
B v =
i

i
T
B
i
(3.24b)
es decir:

i
= (
i
T
B v ) / (
i
T
B
i
) (3.24c)
Luego es suficiente restar de v los
i

i
para obtener un vector que (salvo por la
imprecisin en la aritmtica no tiene componentes segn los vectores caractersticos
previamente hallados.
Para el ejemplo antes tratado, suponiendo que se haya obtenido el primer vector
caracterstico:

1
=

000000000 . 1
536128843 . 0
221295029 . 0


H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 12
y considerando v =

0
1
0
se obtiene
1
= 0.295889928, de donde:
x
0
= v -
1

1
=

29589 . 0
84136 . 0
06548 . 0

es un vector ortogonal a
1
. Si se hace una iteracin inversa con x
0
se obtiene
(suponiendo que se operara con una aritmtica infinitamente precisa) el vector
caracterstico
2
:
k x
k
Bx
k

1 + k
x r
k+1


(x
k+1
)
0 -0.06548 -0.06548 0.24319 0.64072
0.84136 1.68272 0.64072
-0.29589 -0.88767 -0.24696 1.20534
1 0.37956 0.37956 0.40775 0.82960
1.00000 2.00000 0.82960
-0.38544 -1.15631 -0.32671 1.17649
2 0.49150 0.49150 0.43668 0.84594
1.00000 2.00000 0.84594
-0.39382 -1.18147 -0.33553 1.17517
3 0.51620 0.51620 0.44210 0.84715
1.00000 2.00000 0.84715
-0.39663 -1.18990 -0.34275 1.17504
4 0.52187 0.52187 0.43603 0.82913
1.00000 2.00000 0.82913
-0.40460 -1.21379 -0.38466 1.17113
Es importante hacer notar que, como consecuencia de los errores de redondeo se
introducen en las aproximaciones x
j
componentes segn los vectores caractersticos
originalmente eliminados.. En los resultados precedentes se tienen las siguientes
componentes segn
1
:
k
1

0 -1.565 x 10
-6

1 -1.580 x 10
-5

2 -0.000123
3 -0.000941
4 -0.007188
5 -0.056063
Como estas componentes tienden a crecer ms rpidamente que la propia solucin, es
necesario eliminarlas cada 4 5 pasos, utilizando el mismo proceso inicial:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 13
x
j
= v -

1
1
j
i
i

i
(3.25)
Para el caso del ejemplo:
( )

=
40787 . 0
03006 . 1
53829 . 0
000000000 . 1
536128843 . 0
221295029 . 0
056093 . 0
46393 . 0
00000 . 1
52588 . 0
0
x
y luego de escalar este vector:
k x
k
Bx
k
x
k+1
r
k+1


(x
k+1
)
5 0.52258 0.52258 0.44489 0.85094
1.00000 2.00000 0.85094
-0.39597 -1.18790 -0.33696 1.17511
6 0.52282 0.52282 0.44496 0.85098
1.00000 2.00000 0.85098
-0.39599 -1.18796 -0.33698 1.17511
7 0.52288
1.00000
-0.39599
se obtienen: 17511 . 1
85098 . 0
1
2
= = y
2
=

39599 . 0
00000 . 1
52288 . 0

3.2.5 Deflacin
Otra alternativa es hacer una deflacin, obteniendo un nuevo sistema = B A
~ ~
, de
orden menor, con los mismos valores caractersticos del problema original, excepto los
previamente determinados. En lo que sigue se aplica esta idea a un problema de la
forma clsica = H .
Considrese una matriz ortogonal, P , cuya ltima columna es igual al vector
caracterstico
1
previamente determinado:
( )
1 1 2 1
=
n
p p p P L (3.26)
Al hacer el cambio de variable z P = se obtiene z P z P H = y premultiplicando por
T
P : ( ) z z P H P =
T
. Sin embargo, al ser la ltima columna de P igual a
1
y
suponiendo que ese vector haya sido normalizado de modo que 1
1 1
=
T
se tiene:
|
|

\
|

=
1
~
0
0 H
P H P
T
(3.27)
Esta matriz tiene los mismos valores caractersticos que la matriz original, H . Lo mismo
se puede decir de H
~
, excepto por
1
.
Hay mltiples posibilidades para formar P . En el proceso propuesto por Rutishauser se
hacen las operaciones equivalentes a trabajar con
1 2 1
=
n
J J J P L , donde:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 14
1
1
1
1
+
+
|
|
|
|
|
|
|
|

\
|

=
k
k
k
k
k k
k k
k
c s
s c
columna columna
fila
fila
O
O
J
(3.28a)
Ntese que ( )
1 2 1 1 2 1
=
n
T T T
n
T
J J J H J J J P H P L L , pudindose evaluar fcilmente los
sucesivos productos, ya que en cada caso slo se alteran dos filas y dos columnas.
Los coeficientes
k
c y
k
s se determinan a partir de las componentes L
3 2 1
x x x del
vector caracterstico previamente hallado,
1
. Definiendo:
2 2
3
2
2
2
1
2
k k
x x x x q L + + + = (3.28b)
se tiene:
1
1
1
+
+
+
=
=
k
k
k
k
k
k
q
x
c
q
q
s
(3.28c)
Para el ejemplo considerado anteriormente, sera necesario primero convertir el
problema a la forma clsica. Al ser B diagonal:
|
|
|

\
|

= =

333333 . 0 408248 . 0 0
408248 . 0 5 . 1 414214 . 1
0 414214 . 1 5
2
1
2
1
B A B H
Y para = H pueden obtenerse (por iteracin inversa):
Para = H pueden obtenerse (por iteracin inversa):

=
90987 . 0
39827 . 0
11625 . 0
1

Luego:
00000 . 1
90987 . 0 41489 . 0 41489 . 0
95994 . 0 28019 . 0 11625 . 0
3
2 2 2
1 1 1
=
= = =
= = =
q
c s q
c s q

Con el propsito de observar que, efectivamente, la ltima columna de P es igual a
1

se est evaluando aqu la referida matriz:
|
|
|

\
|

|
|
|

\
|
=
90987 . 0 414898 . 0 0
41489 . 0 90987 . 0 0
0 0 1
1 0 0
0 95994 . 0 28019 . 0
0 28019 . 0 95994 . 0
P
es decir:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 15
|
|
|

\
|

=
90987 . 0 41489 . 0 0
39827 . 0 87342 . 0 28019 . 0
11625 . 0 25494 . 0 95994 . 0
P
de donde:
|
|
|

\
|

=
15462 . 0 0 0
0 19271 . 1 27561 . 0
0 27561 . 0 48594 . 5
P H P
T

Ntese el
1
en la esquina inferior derecha. Los valores caractersticos de
|
|

\
|

=
19271 . 1 27561 . 0
27561 . 0 48594 . 5 ~
H son 1751 . 1
2
= y 5036 . 5
3
= , es decir, iguales a los
restantes valores caractersticos del problema original. Los correspondientes vectores
resultan:
)
`

=
9980 . 0
0638 . 0
2
z y
)
`

=
0638 . 0
9980 . 0
3
z
de donde:
)
`

0
2
1
k
k
z
P B
El factor
2
1

B se requiere para obtener los vectores del problema general en su forma


original.
3.3 Mtodos de Transformacin
Los mtodos de este grupo son eficientes slo si se requieren todos o una alta
proporcin de los valores y vectores caractersticos. La idea bsica de estos procesos
consiste en hacer un cambio de variables:
= P z (3.29a)
para transformar A = B en:
( P
-1
A P ) z = ( P
-1
B P ) z (3.29b)
Este sistema tiene los mismos valores caractersticos que el sistema original y vectores
propios relacionados por (3.29a). Si las transformaciones son tales que las nuevas
matrices tienen valores y vectores caractersticos fciles de determinar, se ha resuelto
indirectamente el problema original.
3.3.1 Mtodo de Jacobi
El mtodo de Jacobi (1846) puede considerarse como prototipo de los mtodos de
transformacin. En este procedimiento se transforma el problema original a uno de la
forma:

|
|
|
|

\
|
=

|
|
|
|

\
|
n n n n
z
z
z
b
b
b
z
z
z
a
a
a
M O M O
2
1
2
1
2
1
2
1
(3.30)

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 16
que tiene como vectores caractersticos las columnas de la matriz identidad y como
valores caractersticos los
i i i
b a = . Los valores caractersticos del sistema original
son los mismos. P es en este caso una matriz ortogonal:
P
-1
= P
T
(3.31)
cuyas columnas son la propia solucin buscada. sta se determina mediante un
proceso iterativo que se describe a continuacin.
En la forma que aqu se presenta, este mtodo se aplica a problemas de la forma
clsica, A = , siendo A una matriz simtrica (real). Ms adelante se consideran las
modificaciones requeridas para problemas de la forma general.
Empezando con A
(0)
= A y llamando
(0)
a los vectores caractersticos del problema
original, el paso k del proceso se define como:

(k)
= P
k

(k+1)
(3.32a)
A
(k)
( P
k

(k+1)
) = ( P
k

(k+1)
)
y si P es una matriz ortogonal, premultiplicando por P
T
se obtiene:
( P
k
T
A
(k)
P
k
)
(k+1)
=
(k+1)

Lo que equivale a considerar un problema similar al original:
A
(k+1)

(k+1)
=
(k+1)
(3.32b)
Siendo:
A
(k+1)
= P
k
T
A
(k)
P
k
(3.32c)
Ntese que se mantiene la simetra de la matriz. Los valores caractersticos de esta
nueva matriz son los mismos de la matriz original; los correspondientes vectores se
relacionan por expresiones de la forma (3.32a).
En el mtodo de Jacobi las matrices P
k
corresponden a una rotacin plana:
j fila
i fila
j col i col
k k
k k
k
|
|
|
|
|
|
|
|

\
|


=
1
cos sen
sen cos
1
O
O
P (3.33)
El objetivo de un paso es hacer cero un coeficiente a
ij
= a
ji
. Puede verificarse
fcilmente que:
( ) ( ) 0 sen cos sen cos
2 2 ) ( 1 1
= + = =
+ +
k k
k
ij k k
(k)
ii
(k)
jj
) (k
ji
) (k
ij
a a a a a

(3.34a)
y por tanto:
4
0
2
2 tg
) ( ) (
) (

=
k
k
jj
k
ii
k
ij
k
a a
a
(3.34b)
Slo los elementos de dos filas y de dos columnas ( ) j i, se alteran en cada paso.
Adems, como se mantiene la simetra de la matriz A slo deben calcularse los

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 17
coeficientes de la submatriz triangular superior (o inferior) de A
(k+1)
. Con la notacin
c = cos
k
; s = sen
k
:
( ) ( ) 0 c
2
2
2 2 ) ( 1 1
2 ) ( ) ( 2 ) ( 1
2 2 1
= + = =
+ =
+ + =
+ +
+
+
s a cs a a a a
c a cs a - s a a
s a cs a c a a
k
ij
(k)
ii
(k)
jj
) (k
ji
) (k
ij
k
jj
k
ij
k
ii
) (k
jj
(k)
jj
(k)
ij
(k)
ii
) (k
ii
(3.35a)
c a s a a a
s a c a a a
k
jr
(k)
ir
) (k
rj
) (k
jr
k
jr
(k)
ir
) (k
ri
) (k
ir
) ( 1 1
) ( 1 1
+ = =
+ = =
+ +
+ +
(3.35b)
En un cierto paso se hacen cero los elementos a
ij
y a
ji
. Sin embargo, las sucesivas
rotaciones reintroducen valores significativos en estas posiciones, por lo que es
necesario repetir el proceso en varios "ciclos" para todos los elementos de fuera de la
diagonal principal. El proceso es convergente. Si en un ciclo dado los cocientes
[ ]
) ( ) (
2
) (
k
jj
k
ii
k
ij
ij
a a
a
= (3.36)
son de orden , stos se reducen a orden
2
en el siguiente ciclo.
El nmero de ciclos completos necesarios para que la matriz A sea suficientemente
aproximada a una matriz diagonal depende del orden de la matriz. Para matrices de
orden 50 60 pueden ser necesarios 8 a 10 ciclos. Cada ciclo demanda O(2n
3
)
operaciones.
Desde un punto de vista terico sera ms eficiente hacer cero los elementos a
ij
en
orden decreciente de los
ij
, definidos por (3.36), pero las comparaciones necesarias
son relativamente lentas. Por eso se prefiere seguir un orden fijo en la seleccin de los
elementos y efectuar las rotaciones slo si
ij
es mayor que una tolerancia, variable en
funcin del nmero de ciclo, m (por ejemplo 10
-2m
). La convergencia del proceso se
puede verificar con una medida similar.
Para determinar los vectores caractersticos es suficiente efectuar el producto de las
matrices P
k
ya que:

(k)
= P
k

(k+1)
(3.37a)
y por lo tanto:
=
(0)
= P
1
P
2
P
3
... P
m
(3.37b)
Para ilustrar el mtodo de Jacobi considrese el problema A = con:
|
|
|
|
|

\
|

=
4 3 1 0
3 6 3 - 1
1 3 - 6 3 -
0 1 3 - 2
) 0 (
A
En el primer paso se hacen cero los coeficientes a
12
y a
21
. En las expresiones
precedentes:
3 6 2
) 0 (
21
) 0 (
12
) 0 (
22
) 0 (
11
= = = = a a a a


H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 18
( )
( )
471858 . 0 sen 881675 . 0 cos 5 . 1
6 2
3 2
2 tg = = =

=
|
|
|
|
|

\
|
=
1 0 0 0
0 1 0 0
0 0 881675 0 471858 0
0 0 471858 0 881675 0

1
. .
. - .
P
|
|
|
|
|

\
|
= =
4 3 881675 0 471858 0
3 6 11688 3 533899 0
881675 0 11688 3 60555 7 0
471858 0 533899 0 0 394449 0

1
(0) T
1
) 1 (
- . .
- . - . -
. . - .
. . - .
P A P A
Luego se hacen cero los coeficientes a
31
:
533899 . 0 6 394449 . 0
) 1 (
31
) 1 (
13
) 1 (
33
) 1 (
11
= = = = a a a a

093978 . 0 sen 995574 . 0 cos = =
|
|
|
|
|

\
|
=
1 0 0 0
0 0.995574 0 0.0939783
0 0 1 0
0 0.0939783 - 0 0.995574

2
P
|
|
|
|
|

\
|
= =
4 03107 3 881675 0 187835 0
03107 3 0504 6 10309 3 0
881675 0 10309 3 60555 7 292919 0
187835 0 0 292919 0 344051 0

2
(1) T
2
) 2 (
. - . .
. - . . -
. . - . . -
. . - .
P A P A
Ntese que se tienen nuevamente valores significativos en las posiciones 12 y 21. Por
otro lado:
|
|
|
|
|

\
|
=
1 0 0 0
0 0.995574 0 0.0939783
0 0.0443444 - 0.881675 0.469770
0 0.0828582 - 0.471858 - 0.877773

2 1
P P
Procediendo en forma similar:
10309 . 3 0504 . 6 60555 . 7
) 2 (
32
) 2 (
23
) 2 (
33
) 2 (
22
= = = = a a a a
615196 . 0 sen 788374 . 0 cos = =
|
|
|
|
|

\
|
= =
4 1.84721 - 2.55979 0.187835
1.84721 - 3.62895 0 0.180203 -
2.55979 0 10.027 0.23093 -
0.187835 0.180203 - 0.23093 - 0.344051

3
(2) T
3
) 3 (
P A P A

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 19
|
|
|
|
|

\
|
=
1 0 0 0
0 0.784885 0.612474 - 0.0939783
0 0.507443 0.72237 0.46977
0 0.355609 - 0.321026 - 0.877773

3 2 1
P P P
187835 . 0 4 344051 . 0
) 3 (
41
) 3 (
14
) 3 (
44
) 3 (
11
= = = = a a a a
0511758 . 0 sen 99869 . 0 cos = =
|
|
|
|
|

\
|
= =
00963 4 85401 1 54462 2 0
85401 1 62895 3 0 0854342 0
54462 2 0 027 10 361627 0
0 0854342 0 361627 0 334426 0

4
(3) T
4
) 4 (
. . - .
. - . . -
. . . -
. - . - .
P A P A
|
|
|
|
|

\
|
=
0.99869 0 0 0.0511758 -
0.00480941 0.784885 0.612474 - 0.0938551
0.0240408 0.507443 0.722370 0.469154
0.0449207 0.355609 - 0.321026 - 0.876622

4 3 2 1
P P P P
54462 . 2 00963 . 4 027 . 10
) 4 (
42
) 4 (
24
) 4 (
44
) 4 (
22
= = = = a a a a
343849 . 0 sen 939025 . 0 cos = =
|
|
|
|
|

\
|
= =
07785 3 74096 1 0 124345 0
74096 1 62895 3 6375 0 0854342 0
0 6375 0 9588 10 339576 0
124345 0 0854342 0 339576 0 334426 0

5
(4) T
5
) 5 (
. . - .
. - . . - . -
. - . . -
. . - . - .
P A P A
|
|
|
|
|

\
|
=
0.937795 0 0.343398 0.0511758 -
0.215115 0.784885 0.573474 - 0.0938551
0.225811 - 0.507443 0.686590 0.469154
0.152566 0.355609 - 0.286006 - 0.876622

5 4 3 2 1
P P P P P
74096 . 1 07785 . 3 62895 . 3
) 5 (
43
) 5 (
34
) 5 (
44
) 5 (
33
= = = = a a a a
649489 . 0 sen 760371 . 0 cos = =
|
|
|
|
|

\
|
= =
59076 1 0 414049 0 0390598 0
0 11603 5 484737 0 145722 0
414049 0 484737 0 9588 10 339576 0
0390598 0 145722 0 339576 0 334426 0

6
(5) T
6
) 6 (
. . - .
. . - . -
. - . - . . -
. . - . - .
P A P A
|
|
|
|
|

\
|
=
0.713072 0.609087 - 0.343398 0.0511758 -
0.673341 0.457089 0.573474 - 0.0938551
0.157878 0.532507 0.686590 0.469154
0.114957 - 0.369485 - 0.286006 - 0.876622

6 5 4 3 2 1
P P P P P P
con lo que termina un primer ciclo. Anlogamente, al terminar el segundo ciclo:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 20
|
|
|
|
|

\
|
=
1.57279 0 0.0000149 0.0003418 -
0 5.08272 0.0015155 0.0006033 -
0.0000149 0.0015155 11.0268 0.007656 -
0.0003418 - 0.0006033 - 0.007656 - 0.317649

) 12 (
A
|
|
|
|
|

\
|
=
0.722518 0.584532 - 0.361467 0.0750522 -
0.651578 0.399623 0.640155 - 0.0771368
0.201062 0.566580 0.619208 0.505117
0.11397 - 0.421440 - 0.275908 - 0.856314

12 2 1
P P P L
y al finalizar el tercer ciclo:
|
|
|
|
|

\
|
=
1.57279
5.08272
11.0269
0.317644

) 18 (
A
No se muestran los coeficientes con valor absoluto menor que 10
-6
. Los coeficientes
de la diagonal de A
(18)
son (aproximaciones a) los valores caractersticos de la matriz
A. Ntese que no se obtienen en orden ascendente o descendente. Las columnas del
producto
18 2 1
P P P L son los correspondientes vectores, que se obtienen normalizados:

T
= I. Esto se comprueba fcilmente, ya que las matrices
k
P son todas
ortogonales.
|
|
|
|
|

\
|
=
0.722537 0.584614 - 0.361373 0.074671 -
0.651558 0.399777 0.640107 - 0.076907
0.200923 0.566358 0.618991 0.505686
0.114202 - 0.421478 - 0.276628 - 0.856032

18 2 1
P P P L

3.3.2 Caso de Matrices Hermitianas.
El mtodo de Jacobi puede tambin emplearse para hallar los valores y vectores
caractersticos de una matriz Hermitiana, H , cuyos coeficientes (en general complejos)
tienen simetra conjugada. En este caso se hacen productos de la forma:
k
k
k
k
U H U H
) ( * ) 1 (
=
+
(3.38)
en los que
k
U es una matriz unitaria, es decir, tal que
* 1
k k
U U =

(el superndice *
denota en este caso la conjugada traspuesta). Para hacer cero el coeficiente
ij
h se
utiliza:
j fila
i fila
j col i col
i
i
k
e
e
|
|
|
|
|
|
|
|

\
|


=

1
cos sen
sen cos
1
O
O
U (3.39)
Suponiendo que:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 21
ic b h
a h
k
ji
k
ii
+ =
=
) (
) (

d h
ic b h
k
jj
k
ij
=
=
) (
) (
(3.40a)
Las partes real e imaginaria de los nuevos coeficientes ( ) j i, resultan:
( )
( ) 0 2 cos sen 2 sen sen cos sen sen cos
0 2 sen sen 2 cos sen cos cos sen cos
2 2 2
2 2 2
= +
= +
c c b d a
c b b a d

de donde:
( )
d a
c b
b
c

+
=
=
sen cos 2
2 tan
tan
(3.40b)
3.3.3 Mtodo de Jacobi Generalizado.
Es posible modificar el mtodo de Jacobi "clsico" antes descrito para resolver
directamente el problema general A = B .
En lo que sigue se supone que A y B son simtricas y que esta ltima es definida
positiva (y posiblemente no diagonal). Debe anotarse que si B fuera diagonal sera
ms eficiente transformar el problema a la forma clsica.
Un paso del proceso general se define por:
A
(k+1)
= P
k
T
A
(k)
P
k
(3.41)
B
(k+1)
= P
k
T
B
(k)
P
k

donde P
k
es una matriz similar a la utilizada para el proceso clsico:
j fila
i fila
j col i col
k
k
k
|
|
|
|
|
|
|
|

\
|

=
1
1
1
1
O
O
P (3.42)
y se determinan de:
( ) 0 1
) ( 1 1
= + + + = =
+ + (k)
jj k
k
ij k k
(k)
ii k
) (k
ji
) (k
ij
a a a a a

( ) 0 1
) ( 1 1
= + + + = =
+ + (k)
jj k
k
ij k k
(k)
ii k
) (k
ji
) (k
ij
b b b b b (3.43)
Estas dos ecuaciones son independientes, excepto en el caso en que
(k)
jj
(k)
jj
(k)
ij
(k)
ij
(k)
ii
(k)
ii
b
a
b
a
b
a
= = (3.44a)

en el que puede considerase, por ejemplo:
(k)
jj
(k)
ij
k k
a
a
= = 0 (3.44b)
Definiendo:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 22
( )
) ( ) ( ) ( ) (
2
1
3
) ( ) ( ) ( ) (
2
) ( ) ( ) ( ) (
1
k
jj
k
ii
k
jj
k
ii
k
ij
k
ii
k
ij
k
ii
k
ij
k
jj
k
ij
k
jj
a b b a c
a b b a c
a b b a c
=
=
=
(3.45a)
2 1
2
3 3 3
) ( c c c c signo c d + + =
se obtienen:
d
c
d
c
k k
1 2
= = (3.45b)
El radical en la expresin de d es siempre positivo si B es una matriz definida positiva.
Puede observarse que si B fuera la matriz identidad se obtendran: = = tg
k k
.
Los comentarios precedentes relativos a la convergencia son tambin aqu aplicables.
El nmero de operaciones en cada ciclo es de O(3n
3
).
El siguiente ejemplo ilustra los aspectos nuevos introducidos en esta seccin. Se
pretende determinar los valores y vectores caractersticos del sistema: A = B ,
donde:
|
|

\
|

=
1 1
1 1
A
|
|

\
|
=
2 1
1 2
B
Para estas pequeas matrices con un paso es suficiente:
i=1, j=2
a
11
= 1 a
22
= 1 a
12
= a
21
= -1
b
11
= 2 b
22
= 2 b
12
= b
21
= 1
c
1
= 3 c
2
= 3 c
3
= 0
d=3 = -
k
=1
A
(1)
= P
1
T
A
(0)
P
1
=
|
|

\
|
=
|
|

\
|

|
|

\
|

|
|

\
|
0 0
0 4
1 1
1 1
1 1
1 1
1 1
1 1

B
(1)
= P
1
T
B
(0)
P
1
=
|
|

\
|
=
|
|

\
|

|
|

\
|
|
|

\
|
6 0
0 2
1 1
1 1
2 1
1 2
1 1
1 1

de donde:

2
= 4/2 = 2

1
= 0/6 = 0
= P
1
diag (b
i
-
) =
|
|

\
|

=
|
|

\
|
|
|

\
|
4082 . 0 7071 . 0
4082 . 0 7071 . 0
6 1 0
0 2 1
1 1
1 1

La post multiplicacin de P
1
slo es necesaria para escalar los vectores de modo que
ij j
T
i
= B . Al igual que en el procedimiento clsico los valores caractersticos (y los
correspondientes vectores) no quedan necesariamente ordenados.
3.3.4 El Mtodo QR
Este proceso se aplica al problema clsico A = , donde A no requiere ser
simtrica, pudiendo tener valores caractersticos cero (o incluso negativos). En el caso

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 23
ms general, para una matriz A cualquiera, el mtodo QR es poco eficiente, ya que
requiere O(
3
4
n
3
) operaciones por paso. Sin embargo, slo se requieren O(4n
2
)
operaciones por paso si A es de la forma Hessemberg:
|
|
|
|
|
|
|
|

\
|
=
O L
K
55 54
45 44 43
35 34 33 32
25 24 23 22 21
15 14 13 12 11
0 0 0
0 0
0
a a
a a a
a a a a
a a a a a
a a a a a
A (3.46)
es decir si es casi triangular superior, excepto por una codiagonal inferior. Para el caso
particular en que la matriz A es adems simtrica (y por lo tanto tridiagonal):
|
|
|
|
|
|
|

\
|
=
O O
O
4 3
3 3 2
2 2 1
1 1
a b
b a b
b a b
b a
A (3.47)
el mtodo QR es an ms eficiente, requiriendo tan solo O(12n) por paso.
En todo caso es siempre posible efectuar la transformacin a la forma Hessemberg
(tridiagonal si A y B son simtricas), requirindose un total de O(
3
5
n
3
) operaciones
(una sola vez).
Debe anotarse adems que, a diferencia del mtodo de Jacobi, el mtodo QR mantiene
la posible configuracin banda de la matriz y permite efectuar traslaciones (anlogas a
las de una iteracin inversa), tanto para acelerar la convergencia como para mejorar la
precisin en los valores caractersticos de inters. El objetivo del proceso conocido
como QR es la determinacin de los valores caractersticos; conocidos estos, los
correspondientes vectores pueden obtenerse por iteracin inversa con traslacin.
Considerando A
(0)
= A, el paso bsico del mtodo QR consiste en hacer la
descomposicin:
k k
k
R Q A =
) (
(3.48a)
donde
k
Q es una matriz ortogonal (es decir, I Q Q =
k
T
k
) y
k
R es una matriz triangular
superior. Luego se efecta el producto en orden cambiado:
k k
k
Q R A =
+ ) 1 (
(3.48b)
Obsrvese que premultiplicando (3.48a) por
T
k
Q se obtiene:
k
k T
k
R A Q =
) (
(3.48c)
y por lo tanto:
k
k T
k k k
k
Q A Q Q R A
) ( ) 1 (
= =
+
(3.48d)

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 24
Ntese que si
) (k
A es simtrica
) 1 ( + k
A tambin resulta simtrica. La expresin (3.48d)
indica adems que
) 1 ( + k
A es "similar" a
) (k
A : sus valores caractersticos son los
mismos, los correspondientes vectores se relacionan por una transformacin lineal:
) ( ) ( ) ( k k k
= A (3.49a)
al efectuar el cambio de variables:
) 1 ( ) ( +
=
k
k
k
Q (3.49b)
se obtiene:
) 1 ( ) 1 ( ) ( + +
=
k
k
k
k
k
Q Q A (3.49c)
( )
) 1 ( ) 1 ( ) ( + +
=
k k
k
k T
k
Q A Q (3.49d)
Ambas matrices tienen los mismos valores caractersticos (que en consecuencia son
los de la matriz original) y vectores caractersticos relacionados por (3.49b).
A medida que k crece
) (k
A converge a una matriz triangular superior (cuyos valores
caractersticos son los elementos de la diagonal principal); para el caso simtrico
) (k
A
converge a una matriz diagonal. Los valores caractersticos se obtienen en orden
descendente; as la aproximacin al valor caracterstico de menor mdulo se obtiene en
la posicin nn de la matriz.
La convergencia del proceso es anloga a la de la iteracin inversa. Cuando en pasos
sucesivos se obtienen valores similares en el extremo inferior de la diagonal principal,
puede afirmarse que se tiene una aproximacin al primer valor caracterstico. La
convergencia puede acelerarse efectuando traslaciones:
) (k
nn k
a = (3.50a)
I Q R A
k k k
k
=
+ ) 1 (
(3.50b)
Ntese que los valores caractersticos de esta nueva matriz son iguales a los de la
matriz original menos la translacin. Cuando se logra que 0
) (
=
k
nn
a puede hacerse una
traslacin:
) (
1 , 1
k
n n k
a

= (3.50c)
para mejorar la convergencia al segundo valor caracterstico y anlogamente se
procede para los otros valores requeridos. Por regla general se requieren slo 2 pasos
por cada valor caracterstico adicional. Al finalizar el proceso debe agregarse a los
valores obtenidos la suma de las traslaciones
k
efectuadas.
Los vectores caractersticos podran obtenerse con el producto:
L
3 2 1
) 0 (
Q Q Q = (3.51)
pero este proceso es poco eficiente, siendo ms conveniente obtener estos vectores
por iteraciones inversas con traslaciones iguales a los valores caractersticos ya
determinados. Esto permite tambin mejorar la precisin en los .
La determinacin de Q y R en un paso puede hacerse en diversas formas. El proceso
ms eficiente consiste en transformar A en una matriz triangular superior utilizando
matrices de rotacin plana (como en el mtodo de Jacobi):

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 25
( ) R A P P P =

T T T
n n 21 31 1 ,
L (3.52a)
y por lo tanto:
1 , 31 21
=
n n
P P P Q L (3.52b)
La matriz
ji
P , que permite hacer cero el coeficiente ji:
j fila
i fila
j col i col
k k
k k
k
|
|
|
|
|
|
|
|

\
|


=
1
cos sen
sen cos
1
O
O
P (3.53a)
se obtiene mediante:
d
a
k
ii
) (
cos =
d
a
k
ji
) (
sen = (3.53b)
( ) ( )
2
) (
2
) ( k
ii
k
ji
a a d + =
Slo se requiere un ciclo de estas transformaciones para obtener R. No es necesario
iterar.
Para un ejemplo del proceso considrese la matriz:
|
|
|

\
|
=
2 1 0
1 4 1
0 1 2
) 0 (
A
Esta es una matriz simtrica (lo cual no es un requisito para emplear el mtodo QR) y,
siendo tridiagonal, tiene la forma Hessemberg.
Para transformar A en una matriz triangular superior R se hace primero cero el
coeficiente a
21
:
0.447214 sen 0.894427 cos
2.236068 1 2
) 0 (
21
0
11
= =
= = = d a a
) (


1 0 0
0 .894427 .447214
0 .447214 - .894427
21
|
|
|

\
|
= P
|
|
|

\
|
=
2 1 0
.894427 3.130494 0
0.447214 2.683281 2.236068

) 0 ( T
21
A P
Luego se hace cero a
32
, con lo que se obtiene una matriz triangular superior:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 26
304290 0 sen 952579 0 cos
286335 3 1 130494 3
) 0 (
32
0
22
. .
. d a . a
) (
= =
= = =


.952579 .304290 0
.304290 - .952579 0
0 0 1
32
|
|
|

\
|
= P
|
|
|

\
|
= =
1.632993 0 0
1.460532 3.286332 0
0.447214 2.683281 2.236068

) 0 ( T
21
T
32 1
A P P R
Y se completa el primer paso efectuando el producto:
|
|
|

\
|
= = =
1.555556 .496904 0
.496904 3.244444 1.469694
0 1.469694 3.200000
32 21 1 1 1
(1)
P P R Q R A
Anlogamente, en el segundo paso:
|
|
|

\
|
=
1 0 0
0 .908739 .417365
0 .417365 - .908739
21
P
|
|
|

\
|
=
.978097 .208150 0
.208150 - .978097 0
0 0 1
32
P
|
|
|

\
|
= =
1.427490 0 0
.765454 2.387242 0
2.689686 3.521363

) 1 ( T
21
T
32 2
L
A P P R
|
|
|

\
|
= = =
1.396226 .297132 0
.297132 2.281193 .996351
0 .996351 4.322580
32 21 2 2 2
(2)
P P R Q R A
Y en el tercer paso:
|
|
|

\
|
=
1 0 0
0 .974449 .224610
0 .224610 - .974449
21
P
|
|
|

\
|
=
.989134 .147017 0
.147017 - .989134 0
0 0 1
32
P
|
|
|

\
|
= =
1.33850 0 0
.491663 2.021076 0
.066739 1.483271 4.435924

) 2 ( T
21
T
32 3
A P P R

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 27
|
|
|

\
|
= = =
1.323944 .196780 0
.196780 2.020318 .453953
0 .453953 4.655737
32 21 3 3 3
(3)
P P R Q R A
Suponiendo que el coeficiente 323944 . 1
) 3 (
33
= a sea una buena aproximacin al primer
valor caracterstico, se efecta una traslacin:
|
|
|

\
|
=
0 .196780 0
.196780 .696375 .453953
0 .453953 3.331794
323944 . 1
(3)
I A
obtenindose en el cuarto paso:
|
|
|

\
|
=
.055581 - .017396 - 0
.017396 - .678541 .088938
0 .088938 3.405209
(4)
A
Se hace entonces una nueva traslacin:
1.268362 -.055581
k 4
= = =


obtenindose:
|
|
|

\
|
=
.000413 - .000010 0
.000010 .731767 .018800
0 .018800 3.463559
(5)
A
y nuevamente:
1.267949 -.000413
k 5
= = =


obtenindose:
|
|
|

\
|
=
0 0 0
0 .732056 .003973
0 .003973 3.464096
(6)
A
Se observa ahora que el coeficiente a
33
es menor que 10
-6
, lo que implica que
1
es
aproximadamente igual a la suma de las traslaciones previamente realizadas.
Conviene luego hacer una traslacin igual al resultado obtenido para a
22
a fin de
mejorar la precisin para el segundo valor caracterstico:
2 .732051
k 6
= = =


|
|
|

\
|
=
.732051 - 0 0
0 0 .003973
0 .003973 2.732050
732051 . 0
(6)
I A
Y puede trabajarse con la submatriz de un orden menor:
|
|

\
|
=
0 .003973
.003973 2.732050
(6)
A

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 28
0.000307 sen 1 cos
2.732051 0.003973 2.732050
) 6 (
21
6
11
= =
= = = d a a
) (

|
|

\
|
= =
1.000000 .000307
.000307 - 1.000000
7 21
Q P
|
|

\
|

= =
000001 . 0
.000840 2.732051
) 6 (
21 7
A P R
T

|
|

\
|
=
0 0
0 73205 . 2
) 7 (
A
Los coeficientes indicados como 0 son menores que 10
-6
. Los valores caractersticos
de esta matriz son 0 y 2.732051. Para obtener aquellos de la matriz original deben
sumarse las traslaciones:

1
= -0.732051 + 2 = 1.267949

2
= 0 + 2 = 2

3
= 2.732051 + 2 = 4.732051
3.3.5. Transformacin a la Forma Hessemberg
Si el mtodo QR se aplicara a una matriz cualquiera sera en general poco eficiente,
puesto que requiere ( )
3
3
4
n O operaciones por paso. Para reducir el nmero de
operaciones a ( )
2
4n O por paso debe previamente transformarse la matriz a la forma
"Hessemberg" (es decir, una matriz que es casi triangular superior, teniendo adems
coeficientes significativos en la primera codiagonal inferior):
|
|
|
|
|
|
|
|
|

\
|
=
nn n n
n
n
n
n
h h
h h h
h h h h
h h h h h
h h h h h
1 ,
4 44 43
3 34 33 32
2 24 23 22 21
1 14 13 12 11
0 0 0 0
0 0
0
O M M M M
L
L
L
L
H (3.54)
Si la matriz original fuera simtrica, la transformacin a la forma Hessemberg, que
puede hacerse conservando la simetra, produce una matriz tridiagonal. En tal caso el
QR requiere apenas n 12 operaciones por paso. Cabe anotar que la forma
Hessemberg (tridiagonal para el caso simtrico) no se pierde en los sucesivos pasos
del mtodo QR.
La transformacin a la forma Hessemberg slo requiere hacerse una vez. Por lo tanto
las ( )
3
3
5
n O que se gastan en la transformacin estn plenamente justificadas.
Entre los procedimientos que se encuentran en la literatura para efectuar la
transformacin, se propone el cambio de variables B = , con lo que el problema
original = se reescribira como =

B B
1
o bien = H . En este
caso H B B =
1
o, lo que es lo mismo, H B B = . En el proceso original de
Hessemberg se usa una matriz B de la forma:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 29
|
|
|
|
|
|
|
|

\
|
=
1 0
0 1 0
0 0 1 0
0 0 0 1 0
0 0 0 0 1
4 3 2
43 42
32
L
M
L
L
L
L
n n n
b b b
b b
b
B (3.55a)
con coeficientes arbitrarios en la primera columna (que por simplicidad se ha escrito
como la primera columna de la matriz identidad). Los coeficientes de las sucesivas
filas de H y columnas de B pueden entonces obtenerse con las expresiones:

+ = =
+ =
n
r k
r
k
kr ik kr ik ir ir
h b b a a h
1 1
1 , 2 , 1 + = r i L (3.55b)
|
|

\
|
+ =

+ = =
+
+
n
r k
r
k
kr ik kr ik ir
r r
r i
h b b a a
h
b
1 1
, 1
1 ,
1
n r i L , 2 + = (3.55c)
Este procedimiento podra fallar si en algn paso 0
, 1
=
+ r r
h . El proceso podra
recomenzarse con una primera columna de B diferente, lo que en general evitara el
error, aunque esto no puede garantizarse. Por otro lado, el procedimiento antes
expuesto no mantiene la posible simetra de la matriz A.
Tambin puede hacerse la transformacin a la forma Hessemberg por rotaciones
planas (mtodo de Givens) o reflexiones (Householder). El mtodo de Householder
utiliza matrices ortogonales y simtricas, de la forma:
T
w w I P 2 = (3.56)
donde w es un vector unitario: 1 = w w
T
. Es fcil probar que
1
= = P P P
T
.
La matriz P refleja al espacio en el "plano" que pasa por el orgen y es ortogonal a w.
Considrese un vector cualquiera u w v
1 0
+ = donde 0 = w u
T
. Entonces,
( )( ) u w u w w w I v P
1 0 1 0
2 + = + =
T
. Ntese que la componente segn w
ha cambiado de signo, es decir, el vector v ha sido reflejado en el plano ortogonal a
w.
La transformacin de A en H mediante el mtodo de Householder requiere 2 n
pasos ( n es aqu el orden del sistema) de la forma:
k
k
k
k
P A P A
) ( ) 1 (
=
+
(3.57a)
donde:
( )
1
) (
, 1
signo
2
+ +
+ =
=
=
k k
k
k k k k
k
T
k
k
T
k k k k
a e v v w
w w
w w I P
(3.57b)
siendo:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 30

=
+
+
) (
) (
, 2
) (
, 1
0
0
k
nk
k
k k
k
k k k
a
a
a
M
M
v
una matriz que contiene los coeficientes de la columna k de
) (k
A que estn por debajo de la diagonal principal, y

=
+
0
1
0
1
M
M
k
e

la columna 1 + k de la matriz identidad (de orden n).
Para que el proceso sea ms eficiente, debe observarse que al premultiplicar A, cuyas
columnas son L
3 2 1
a a a , por la matriz P , cada columna se modifica en forma
independiente. Las columnas de PA A = resultan:
( ) ( )
k j
T
k k j j
T
k k k j
w a w a a w w I a = = (3.58a)
Igualmente, al postmultiplicar A por P las filas se modifican en forma independiente.
Llamando ahora
i
a a la fila i de la matriz PA A = , la correspondiente fila de P A A =
resulta:
( ) ( )
T
k k i k i
T
k k k i i
w w a a w w I a a = = (3.58b)
Por ejemplo, considrese la matriz:
) 1 (
4 3 2 1
3 4 3 2
2 3 4 3
1 2 3 4
A A =
|
|
|
|
|

\
|
=
Transformacin de la primera columna a la forma Hessemberg:

=
1
2
3
0
1
v 74166 . 3
1
= v

= + =
1
2
74166 . 6
0
0
0
1
0
74166 . 3
1
2
3
0
2 1 1 1
e v v w 03964 . 0
1
=
( ) 93096 . 0 23786 . 1 38619 . 1 00000 . 1
) 1 (
1 1
= A w
T


H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 31
|
|
|
|
|

\
|
=
3.06904 1.76214 0.61381 0
1.13809 1.52428 0.22762 0
4.27618 - 5.34522 - 5.34522 - 3.74166 -
1 2 3 00000 . 4
) 1 (
1
A P

=
42543 . 0
22681 . 0
02190 . 2
00000 . 1
1
) 1 (
1 1
w A P
|
|
|
|
|

\
|
= =
2.64362 0.91128 2.25428 - 0
0.91128 1.07067 1.30143 - 0
2.25428 - 1.30143 - 8.28571 3.74166 -
0 0 3.74166 - 00000 . 4
1
) 1 (
1
) 2 (
P A P A
Transformacin de la segunda columna a la forma Hessemberg:

=
25428 . 2
30143 . 1
0
0
2
v 60298 . 2
2
= v

= + =
25428 . 2
90441 . 3
0
0
0
1
0
0
60298 . 2
25428 . 2
30143 . 1
0
0
3 2 2 2
e v v w
09840 . 0
2
=
( ) 0.93647 - 0.61346 - 00000 . 1 0
) 2 (
2 2
= A w
T

|
|
|
|
|

\
|
=
0.53254 0.47162 - 0 0
2.74510 - 1.32452 - 2.60298 0
2.25428 - 1.30143 - 8.28571 3.74166 -
0 0 3.74166 - 00000 . 4
) 2 (
2
A P

=
0.06306
1.11774
1
0
2
) 2 (
2 2
w A P
|
|
|
|
|

\
|
= = =
0.67470 0.22540 - 0 0
0.22540 - 3.03959 2.60298 0
0 2.60298 8.28571 3.74166 -
0 0 3.74166 - 00000 . 4
2
) 2 (
2
) 3 (
P A P A H

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 32
3.4 Mtodos Mixtos
Los dos procesos que se describen en lo que sigue son adecuados para sistemas de
orden grande en el caso en que se requieran muchos vectores caractersticos.
3.4.1 Iteracin con la Determinante de (A - B)
Los valores propios de B A = son los ceros del polinomio caracterstico
( ) ( ) 0 det = = B A p . Por ejemplo, si:
|
|
|
|
|

\
|
=
4 2 0 0
2 8 2 0
0 2 8 2
0 0 2 4
A
|
|
|
|
|

\
|
=
1 0 0 0
0 2 0 0
0 0 2 0
0 0 0 1
B
Las races del polinomio:
( )
0 720 864 364 64 4
4 2 0 0
2 2 8 2 0
0 2 2 8 2
0 0 2 4
det
2 3 4
= + + =
|
|
|
|
|

\
|




= p

son los valores caractersticos. La determinacin de los coeficientes del polinomio
caracterstico es factible (utilizando, por ejemplo, el mtodo de Hessemberg). Una vez
obtenidos los coeficientes del polinomio caracterstico, se requiere determinar los
valores de para los que ( ) 0 = p . Sin embargo, ste es frecuentemente un
problema mal condicionado: pequeos errores en los coeficientes causan grandes
errores en las races. Por ello, los mtodos en los que se hace una determinacin
explcita del polinomio caracterstico slo son adecuados para pequeas matrices.
Para matrices de orden elevado, pero con un ancho de banda comparativamente
pequeo, pueden determinarse los valores caractersticos por iteracin, evaluando la
determinante de B A
k
para una secuencia de valores
k
que se corrigen con
procesos tales como el mtodo de la secante. As, dadas las aproximaciones
1

k
y
k
a una raz y habindose calculado ( ) B A
1 1
=
k k
p y ( ) B A
k k
p = se
obtiene una mejor aproximacin,
1 +

k
, mediante:
2 1 ) (
) ( ) (
1
1
1

|
|

\
|


=

+ k
k k
k k
k k
p
p p
(3.59)
La evaluacin de ( ) p no requiere tener el polinomio ( ) p en forma explcita.
Si B A se descompone en el producto de una matriz triangular inferior, L , con
unos en la diagonal principal, por una matriz triangular superior, U , se tiene que:
( ) ( ) ( ) ( ) ( ) U L LU B A det det det det = = = p (3.60a)
donde:
( )
( ) L
L
44 33 22 11
44 33 22 11
det
1 det
u u u u
l l l l
=
= =
U
L
(3.60b)

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 33
y por lo tanto: ( )
nn
u u u u u p L
44 33 22 11
=
La descomposicin de B A en factores triangulares LU requiere pocas
operaciones si el ancho de banda es pequeo.
Particularmente importante es el caso en el que las matrices A y B son simtricas y
definidas positivas (todos los valores caractersticos son reales y positivos). En tal caso
puede aplicarse la propiedad de Sturm: el nmero de coeficientes negativos en la
diagonal principal de U al hacer la descomposicin LU B A = es igual al nmero
de valores caractersticos menores que
k
. Esta propiedad, combinada con la
iteracin (3.59) u otra similar, permite obtener una primera aproximacin a una raz. Sin
embargo, el proceso debe combinarse con iteraciones inversas usando el cociente de
Rayleigh para refinar los valores obtenidos.
Para las matrices A y B antes indicadas, con 5 . 1 = :
|
|
|
|
|

\
|
|
|
|
|
|

\
|
=
|
|
|
|
|

\
|
=
454 . 1 0 0 0
2 824 . 3 0 0
0 2 4 . 3 0
0 0 2 5 . 2
1 523 . 0 0
0 1 588 . 0
0 0 1 800 .
0 0 0 1
5 . 2 2 0 0
2 5 2 0
0 2 5 2
0 0 2 5 . 2
5 . 1 B A
( ) 25 . 47 454 . 1 824 . 3 4 . 3 5 . 2 5 . 1 = = p
Anlogamente se obtienen:
k
) (
k
p Nmero de coeficientes negativos
en la diagonal principal de U
1.5 47.25 0
1
2.0 0 0
2.5 -8.75 1
2
3.0 0 1
3.5 11.25 2
4.0 16.00 2
4.5 11.25 2
3
5.0 0 2
5.5 -8.75 3
4
6.0 0 3
6.5 47.25 4
3.4.2 Iteracin en Subespacio
El mtodo tratado en la seccin precedente es eficiente cuando las matrices tienen
ancho de banda relativamente pequeo. Cuando el ancho de banda es grande es ms
adecuado un proceso de iteracin en subespacio, como se describe en este acpite.
Este mtodo tiene por objeto determinar en forma simultnea los p vectores
caractersticos asociados a los valores caractersticos de menor mdulo. La idea
bsica es que es mucho ms fcil iterar para obtener un subespacio que contenga a
estos vectores que iterar para obtener cada uno de ellos por separado.
Se trabaja con una coleccin de q vectores linealmente independientes ( p q > ). Los
q vectores iniciales definen un subespacio que no necesariamente contiene a los p

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 34
vectores de inters. Si esos p vectores caractersticos si estuvieran contenidos en el
subespacio, sera suficiente proyectar B A = para obtener el sistema
z B z A = , de orden n q << , que sera fcil de resolver por mtodos de
transformacin. Los valores caractersticos del problema proyectado seran los mismos
del problema original, mientras que sus vectores caractersticos, z , corresponderan a
las proyecciones de los vectores en el subespacio. No siendo ste el caso, se hacen
iteraciones inversas para mejorar los q vectores con los que se trabaja, de modo que
el subespacio por ellos definido sea ms y ms paralelo a los p vectores propios de
inters.
En lo que sigue, se supone que A y B son matrices simtricas. Siendo
k
X los q
vectores de aproximacin, en cada ciclo del proceso se realizan los pasos siguientes:
a. Iteracin inversa:
k k
BX X A =
+1

La matriz A debe factorizarse antes de iniciar las iteraciones. Los vectores
1 + k
X
son ms paralelos a los primeros p vectores caractersticos.
b. Proyeccin de A y B en el subespacio definido por los vectores
1 + k
X :
1 1
) 1 (
+ +
+
=
k
T
k
k
X A X A
1 1
) 1 (
+ +
+
=
k
T
k
k
X B X B
Las matrices
) 1 ( + k
A y
) 1 ( + k
B son cuadradas, simtricas, de orden q .
c. Solucin del problema de valores y vectores caractersticos proyectado:
1 1
) 1 (
1
) 1 (
+ +
+
+
+
=
k k
k
k
k
Q B Q A
1 + k
es una matriz diagonal, cuyos coeficientes son los valores caractersticos del
problema proyectado. Si los
1 + k
X definen un subespacio que contiene a los p
primeros vectores propios, los p menores valores en
1 + k
son parte de la solucin
buscada.
d. Determinacin de nuevos vectores:
1 1 1 + + +
=
k k k
Q X X
Como consecuencia de los pasos c y d:
( )
q k
k T
k k k
T
k
T
k k
T
k
= = =
+
+
+ + + + + + + 1
) 1 (
1 1 1 1 1 1 1
Q A Q Q X A X Q X A X
( )
q k
k T
k k k
T
k
T
k k
T
k
I Q B Q Q X B X Q X B X = = =
+
+
+ + + + + + + 1
) 1 (
1 1 1 1 1 1 1

es decir, los vectores
1 + k
X satisfacen las condiciones de ortogonalidad, lo que asegura
que la iteracin inversa no produce q vectores todos iguales a
1
.
Si en las
0
X hay componentes segn todos los p vectores caractersticos de inters:
( ) L L
p
k
k
=

2 1
diag Lim
( ) L L
p
k
k

2 1
diag Lim =

X
Habindose obtenido en dos ciclos sucesivos los estimados
) (k
p
y
) 1 ( +

k
p
para el mayor
de los valores caractersticos requeridos, el cociente
) 1 ( ) ( ) 1 ( + +

k
p
k
p
k
p
da una

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 35
medida adecuada del error relativo y es til para verificar la convergencia.
Adicionalmente, debe comprobarse que los valores y vectores obtenidos corresponden
a los p menores valores caractersticos. Para ello puede usarse la propiedad de
Sturm, factorizando B A en LU con valores de ligeramente mayores a los
calculados.
Si A y B son simtricas, de orden n , ancho de semibanda m , y A es definida
positiva, el nmero de operaciones iniciales requeridas es de ( )
2
2
1
nm O ,
esencialmente para la factorizacin de A . En cada ciclo de la iteracin, considerando
n q << , deben hacerse ( ) ( ) 3 2 4 + + q m nq O operaciones. Esto puede reducirse a
( ) ( ) 3 2 2 + + q m nq O cuando B es diagonal. Para el procedimiento como se ha
descrito en los prrafos precedentes, se trabaja con ( ) 8 , 2 min + = p p q .
Habitualmente unos 10 ciclos de iteracin son suficientes para obtener 6 cifras
significativas correctas en los p valores y vectores caractersticos. Las operaciones
finales requieren ( ) p nm O
2
2
1
operaciones adicionales.
Aproximacin Inicial
Para iniciar el proceso se requieren q vectores linealmente independientes, agrupados
en
0
X . Si A y B fueran diagonales, los vectores caractersticos seran las columnas
k
e de la matriz identidad. An cuando A y B no sean diagonales, ste puede ser un
buen criterio para construir la aproximacin inicial
0
X . En particular, deberan
escogerse las columnas cuyo ndice k corresponde a los mximos
kk kk
a b . Con el
propsito de introducir componentes segn todos los vectores caractersticos, se
acostumbra adems considerar dos columnas con componentes arbitrarios (que
podran ser todos iguales a 1, o iguales a los
kk kk
a b ).
En algunas aplicaciones es fcil obtener una buena aproximacin al primer vector
caracterstico, por ejemplo, como solucin de un sistema de ecuaciones de la forma
b x A =
1
. Las sucesivas columnas
k
x para una excelente aproximacin inicial pueden
entonces obtenerse como vectores de Ritz, mediante un proceso recursivo que
combina pasos de iteracin inversa con ortogonalizacin:
1
=
k k
x B y A
j
k
j j
T
j
j
T
k
k k
x
x B x
x B y
y x

=
|
|

\
|
=
1
1

Determinacin de Grupos de Vectores Caractersticos Haciendo Traslaciones
Si se requieren muchos vectores caractersticos, el procedimiento estndar de iteracin
en subespacio puede hacerse ms eficiente utilizando sucesivas traslaciones en
combinacin con procedimientos de eliminacin de las componentes segn los
vectores ya conocidos.
En este caso se trabaja con subespacios de dimensin q , con el propsito de
determinar grupos de 2 q p vectores. Habitualmente ( ) m q , 4 mx = , siendo m el
ancho (promedio) de semibanda. Para cada grupo de vectores, se realizan cmputos
iniciales que incluyen:
a. Determinacin de la traslacin (el proceso se inicia con 0 = )

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 36
1
~
9 . 0 1 . 0
+
+ =
n n

n
es el ltimo valor caracterstico para el que se ha logrado convergencia;
1
~
+

n
es la aproximacin al siguiente valor caracterstico.
b. Factorizacin: U L B A =
c. Determinacin de q vectores de aproximacin inicial,
0
X .
La iteracin incluye los pasos siguientes:
a. Eliminacin de las componentes de
k
X segn los vectores caractersticos
previamente determinados (ver acpite 3.2.4).
b. Iteracin inversa:
1 1
1
+ +
+
=
=
k k
k k
Y Z U L
X B Y

c. Proyeccin de B A y B en el subespacio definido por los vectores
1 + k
Y :
1 1
) 1 (
+ +
+
=
k
T
k
k
Y Z A
1 1
) 1 (
+ +
+
=
k
T
k
k
Z B Z B
Las matrices
) 1 ( + k
A y
) 1 ( + k
B son cuadradas, simtricas, de orden q .
d. Solucin del problema de valores y vectores caractersticos proyectado:
( )
1 1
) 1 (
1
) 1 ( ) 1 (
+ +
+
+
+ +
= +
k k
k
k
k k
Q B Q B A
e. Determinacin de nuevos vectores:
1 1 1 + + +
=
k k k
Q Z X
f. Verificacin de la convergencia
Como en el procedimiento estndar, debe verificarse que se tienen los valores
caractersticos correctos utilizando la propiedad de Sturm.
Ejemplo simple
Supngase que se requieren dos vectores caractersticos de B A = , siendo:
|
|
|
|
|

\
|

=
2 1 0 0
1 2 1 0
0 1 2 1
0 0 1 2
A
|
|
|
|
|

\
|
=
2
0
1
0
B
En este caso particular la iteracin inversa produce en un solo paso el subespacio que
incluye a los dos primeros vectores caractersticos, ya que dos de los valores
caractersticos son infinitos. Para hacer ms eficiente el proceso debe factorizarse
primero la matriz A:

H. Scaletti - Mtodos Numricos: Valores y Vectores Caractersticos 3 - 37
LU A =
|
|
|
|
|

\
|

|
|
|
|
|

\
|

=
25 . 1 0 0 0
1 3333 . 1 0 0
0 1 5 . 1 0
0 0 1 2
1 75 . 0 0 0
0 1 6667 . 0
0 0 1 5 . 0
0 0 0 1

Con la aproximacin inicial:
|
|
|
|
|

\
|
=
0 1
0 0
1 0
0 0
0
X
Se obtiene por iteracin inversa:
|
|
|
|
|

\
|
=
0 2
0 0
1 0
0 0
0
X B
0 1
X B X U L =
|
|
|
|
|

\
|
=
0.4 1.6
0.8 1.2
1.2 0.8
0.6 0.4
1
X
Proyectando las matrices A y B en el subespacio definido por los vectores
1
X :
|
|

\
|
= =
2 . 1 8 . 0
8 . 0 2 . 3
1 1
) 1 (
X A X A
T

|
|

\
|
= =
76 . 1 24 . 2
24 . 2 76 . 5
1 1
) 1 (
X B X B
T

se resuelve el problema proyectado (mtodo de Jacobi generalizado):
1.00
50 . 0 -
56 . 2 d
-0.64 c
56 . 2 c
28 . 1 c
3
2
1
=
=
=

=
=
=

|
|

\
|
=
|
|

\
|

=
1 1
5 . 0 1
1
1
P

|
|

\
|
=
20 . 1 0
0 00 . 6
P A P
T

|
|

\
|
=
96 . 0 0
0 12
P B P
T
de donde:
|
|

\
|
=
|
|

\
|
=
25 . 1 0
0 50 . 0
0
0
2 22
11 11
b a
b a


|
|

\
|
=
621 020 . 1 675 288 . 0
310 510 . 0 675 288 . 0
Q
y finalmente se expresan los vectores en el sistema de referencia original:
( )
2 1 1 1
248 408 . 0 350 577 . 0
124 204 . 0 350 577 . 0
497 816 . 0 350 577 . 0
248 408 . 0 675 288 . 0
=
|
|
|
|
|

\
|

= = Q X X
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 1
4. Ecuaciones No Lineales
4.1 Introduccin
En general no es posible obtener las races de una ecuacin no lineal ( ) 0 = x f en forma
explcita, debindose utilizar mtodos iterativos. Partiendo de una raz aproximada,
0
x ,
se obtiene una secuencia K
3 2 1
, , x x x que converge a la raz deseada. Para algunos
mtodos es suficiente conocer el intervalo [ ] b a, en que se halla la raz; otros
procedimientos, de convergencia ms rpida, requieren una aproximacin inicial cercana
a la raz. Puede ser conveniente empezar los clculos con un mtodo del primer tipo y
cambiar a un mtodo de convergencia ms rpida en la etapa final.
La primera parte de este captulo considera el caso en que la raz, x , es una raz simple,
es decir, 0 ) ( x f . Las dificultades que se presentan en el caso de races mltiples se
discuten en la seccin 4.6. La seccin 4.7 revisa mtodos especficos para extraer
ceros" (races) de polinomios.
La parte final da algunas ideas para la solucin de sistemas de ecuaciones no lineales,
un problema que ciertamente puede demandar mucho esfuerzo de cmputo.
4.2 Aproximaciones Iniciales
Pueden obtenerse aproximaciones iniciales a las races de ( ) 0 = x f graficando o
tabulando la funcin.
Si 0 ) ( ) ( <
o o
b f a f , hay por lo menos una raz, x , en el intervalo ( )
o o
b a , . En el
mtodo de Biseccin se definen una serie de intervalos K ) , ( ) , ( ) , (
2 2 1 1 0 0
b a b a b a .
El punto medio de un intervalo ) , (
i i
b a es 2 / ) (
i i i
b a x + = . Suponiendo que ( ) 0 x f
(si este no es el caso, se ha hallado la raz) se define el sub-intervalo ) , (
1 1 + + i i
b a
mediante:

<
<
=
+ +
0 ) ( ) ( ) , (
0 ) ( ) ( ) , (
) , (
1 1
i i i i
i i i i
i i
x f a f x a
b f x f si b x
b a
Introduciendo la notacin x x
n n
= , se tiene que ( )
n n
O
2
1
1
=
+
. Como
3 . 3 1
2 10

, se requieren 3 4 pasos para mejorar un dgito decimal en la aproximacin.
La convergencia es prcticamente independiente de ( ) x f .

Por ejemplo, para la funcin:
( ) ( ) 0 sen
4
2
= = x
x
x f
puede iniciarse la iteracin con
2
5 . 1
0
0
=
=
b
a

obtenindose:

-1
-0.5
0
0.5
1
1 1.5 2 2.5
x
f(x)
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 2
i
i
a
i
b
i
c ( )
i
c f
1 1.5 2. 1.75 <0
2 1.75 2. 1.875 <0
3 1.875 2. 1.9375 >0
4 1.875 1.9375 1.90625 <0
5 1.90625 1.9375 ...
Se han subrayado las cifras correctas. Puede observarse que la convergencia es lenta.
4.3 Mtodo de Newton Raphson
Si
0
x es suficientemente cercano a la raz x :
( ) ( ) ( ) ( ) ( ) 0 ) (
0
2
0
2
1
0 0 0
= + + + = L x f x x x f x x x f x f
Y despreciando trminos de orden superior:
) (
) (
0
0
0
x f
x f
x x

.
Puede entonces pensarse en iterar con:
i i i
h x x + =
+1

donde:
( )
( )
i
i
i
x f
x f
h

=
expresin que define el mtodo de Newton Raphson (o simplemente de Newton). La
figura muestra una interpretacin geomtrica:
-0.25
0
0.25
0.5
1.75 2 2.25
x
f(x)

Por ejemplo, puede emplearse el mtodo de Newton para extraer la raz p de un
nmero c , lo que equivale a resolver:
0 ) ( = = c x x f
p

1
) ( '

=
p
x p x f

Con el mtodo de Newton:
i
x
1 + i
x
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 3
( )
( )
i
i
i i
x f
x f
x x

=
+1

y por lo tanto:
(
(

+ =

=

+
1 1
1
) 1 (
1
p
i
i
p
i
p
i
i i
x
c
x p
p x p
c x
x x

Para obtener la raz cbica de 2 se tendra:
|
|

\
|
+ =
+
2
1
2
2
3
1
i
i i
x
x x
e iniciando los clculos con 1
0
= x :
i
i
x x x
i i
=
0 1 -0.259921
1 1.333 0.073412
2 1.2638889 0.003968
3 1.2599334934 1.244
5
10


4 1.25992105001778 1.229
10
10


Puede observarse que la convergencia es muy rpida. Sin embargo este no siempre es
el caso. Considrese, por ejemplo, la ecuacin:
( ) ( ) 0 2 = = x ctg x x f
para la que ( ) x ec x f
2
cos 1 ) ( + =
Los resultados obtenidos con dos distintas aproximaciones iniciales, 5 . 0
0
= x y 2
0
= x ,
son:
i
i
x para 5 . 0
0
= x
i
x para 2
0
= x
0 0.5 2.0
1 0.5986 -0.18504
2 0.628703 -0.44878
3 0.6308034 -1.49817
4 0.630812760 -676.133
5 -1140.538
6 -1163.343 Diverge!
Las condiciones para la convergencia del mtodo de Newton se revisan a continuacin.
De la expansin de f en series de Taylor:
( ) ( ) f x x x f x x x f x f
n n n n
+ + = =
2
2
1
) ( ) ( ) ( ) ( 0 en intervalo ( ) x x,
Dividiendo entre ) (
n
x f (que se supone distinto de cero):
( )
( )
( ) ( )
( )
( )
n
n n n
n
n
x f
f
x x x x x x
x f
x f


= = +

2
2
1
1

( )
( )
2
1
2
1
n
n
n
x f
f


=
+

H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 4
y cuando x x
n
se tiene que
2
1
) (
) (
2
1
n n
x f
x f

+
.
Esto es vlido slo si ( ) 0 x f , es decir si la raz es simple. El caso de races mltiples
se revisa ms adelante. El proceso converge cuando
n n
<
+1
, es decir si:
1
0
< f f . Si la raz es simple y la aproximacin inicial es adecuada, la convergencia
del mtodo de Newton es cuadrtica.
Con el mtodo de Newton pueden tambin obtenerse races complejas. Esto requiere
que la aproximacin inicial sea un nmero complejo. Por ejemplo, si:
0 1 ) (
2
= + = x x f

se tendra:
( )
( )
|
|

\
|
=

=
+
i
i
i
i
i i
x
x
x f
x f
x x
1
.
2
1
1

e iniciando los cmputos con i x + =1
0
:
i
i
x
0 i + 1
1 i 75 . 0 25 . 0 +
2 i 975 . 0 075 . 0 +
3 i 9968 . 0 0017 . 0 +
4 i 000004 . 1 000005 . 0 +
4.4 Mtodo de la Secante y Otros Procesos del Mismo Tipo
Si en
) (
) (
1
n
n
n n
x f
x f
x x

=
+
la derivada ) (
n
x f se aproxima por
( )
( )
1
1

n n
n n
x x
f f
, donde
n
f
denota ) (
n
x f , se tiene el mtodo de la Secante:
n n n
h x x + =
+1

( )
) (
1
1

=
n n
n n
n n
f f
x x
f h Se supone que
1

n n
f f
Para cada punto, n, solo debe evaluarse una funcin,
n
f , mientras que el mtodo de
Newton requiere tambin la evaluacin de
n
f .
Es importante hacer notar que NO es conveniente rescribir estas expresiones en la
forma:
( )
( )
1
1 1
1


=
n n
n n n n
n
f f
f x f x
x
ya que con esta ltima expresin pueden introducirse fuertes errores numricos cuando
1

n n
x x y 0
1
>
n n
f f .
En la tabla siguiente se resuelve ) sen( ) (
2
4
1
x x x f = para 2 x por el mtodo de la
secante:
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 5
n
n
x ( )
n
x f x x
n n
=
0 1. -0.59147 -0.93
1 2. 0.090703 0.066
2 1.86704 -0.084980 -0.067
3 1.93135 -0.003177 -0.0024
4 1.93384 -0.000114 +0.00009
5 1.93375 -0.000005
5
2
1
10

<
(en la grfica adjunta casi no se aprecia
la diferencia entre la funcin y la
secante).
La convergencia de mtodo de la
secante es en general ms lenta que la
del mtodo de Newton. Sin embargo,
se justifica usar este mtodo si la
evaluacin de ( ) x f requiere ms del
44% del trabajo que se emplea en
evaluar ( ) x f , ya que el mayor nmero
de iteraciones queda ms que
compensado por el menor nmero de
operaciones realizadas en cada caso.
A esta conclusin se llega comparando
la convergencia de ambos mtodos.
Para el mtodo de la secante:
|
|

\
|

= =

+ +
1
1
1 1
n n
n n
n n n n n
f f
f x x


y siendo:
( ) ( ) ( ) ( ) K + + + = = x f x f x f x f f
n n n n
2
2
1

se obtiene (despreciando trminos de orden superior):
( )( )
( ) ( )
=
+ +
+ +
+ =

+
L
K
) ( ) (
) ( ) (
2
1 2
1
1
1
2
2
1
1
x f x f
x f x f
n n n n
n n n n
n n



( ) ( ) ( )
2
1
) ( ) ( ) ( ) (
1 2
1
2
2
1
K K + + + + + + =

x f x f x f x f
n n n n n

1 2
1
1
) (
) (
+



n n n
x f
x f

Suponiendo entonces:


n n
C =
+1
y por lo tanto ( )
1 1 1
1
1
2
1
2

+
+


= =
n n n n
C
f
f
C

, de
donde se obtiene: ( ) K 618 . 1 5 1 1
2
1
2
= + = + = Es decir, la convergencia del
mtodo de la secante es entre lineal y cuadrtica.
-0.25
0
0.25
1.75 2
x
f(x)
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 6
En el mtodo de Falsa Posicin la secante se toma entre los puntos ( )
n n
f x , y ( )
r r
f x , ,
donde n r < es el mayor ndice para el cual 0 <
r n
f f . Si ( ) x f es continuo, este
mtodo es siempre convergente. Sin embargo, la convergencia es de primer orden.
Otra alternativa es el mtodo de Steffensen:
( )
( )
n
n
n n
x g
x f
x x =
+1

donde: ( )
( ) ( ) ( )
( )
n
n n n
n
x f
x f x f x f
x g
+
=
cuya convergencia es de segundo orden:
( )
( ) ( )
2
1
1
) ( 2
1
n n
x f
x f
x f
+

+

4.5. Otros Mtodos Iterativos
Una ecuacin de la forma ( ) 0 = x f puede rescribirse como ) (x g x = . Dada entonces
una aproximacin
0
x a una raz x de ( ) 0 = x f , la secuencia L , , ,
3 2 1
x x x definida por:
( )
n n
x g x =
+1
converge a x siempre que ( ) 1 < x g en la regin de inters. El
procedimiento puede ser ms simple que otros y en algunos casos puede incluso
converger ms rpidamente.
Por ejemplo, la ecuacin:
0 1 tg ) 2 ( ) ( = = x x x f
es equivalente a ) 2 ( ctg x x = . En este caso podra iterarse con
n n
x x =
+
2 ctg
1
o, lo
que es lo mismo, ( )
n n
x arc x =
+
2 ctg
1
. Sin embargo, la iteracin escrita al revs, es
decir
n n
x x ctg 2
1
=
+
, no funciona.
En efecto, tomando 0
0
= x e iterando con
n n
x x =
+
2 ctg
1
se obtienen:

n x
n

0
0.
1 0.464
2 0.577
3 0.6125
4 0.6245
5 0.6286
6 0.6301
...
10 0.6308017
...
20 0.630812760
Una interpretacin grfica del proceso se muestra en la figura.
En lo que sigue se analiza cmo se reducen los errores en este caso.
Si se considera
n n
x x + =
1 1 + +
+ =
n n
x x
se tiene que ( ) ( )
n n
x x + = +
+
2 ctg
1

-0.5
0
0.5
1
1.5
2
-0.5 0 0.5 1 1.5 2 2.5
x
y(x)
ctg x
2-x
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 7
Suponiendo que x
n
<<
+1
puede hacerse una expansin de la cotangente en series:
( ) ( )
n n
n
x O
x
x = +

+
+
2
sen
ctg
2
1
2
1

y siendo x la solucin exacta, sta satisface idnticamente la ecuacin: ) 2 ( ctg x x = ;
de donde se concluye que:
( )
n n n
x
+ 3
1
2
1
sen
es decir
n n
<
+1
y por lo tanto el proceso es convergente.
Si en cambio se considera la iteracin
n n
x x ctg 2
1
=
+
se tiene que
n n

+
3
1
y el
proceso no converge, an cuando
0
x sea muy cercano a la raz x :
n x
n

0 0.6
1 0.538
2 0.325
3 0.965
4 2.69
5 4.01
4.6. Condicionamiento de las Races: Races Mltiples
Si
n
x es una aproximacin a una raz x de 0 ) ( = x f , se tiene:
( ) ( ) ( ) ( ) ( ) ( ) K + + + = x f x x x f x x x f x f
n n n
2
2
1

Para x x
n
puede escribirse:
( )
( ) x f
x f
x x
n
n


Si el error en la evaluacin de ) (
n
x f es de ( ) O ( depende de la precisin de la
computadora y es independiente de x ) el error en la aproximacin de la raz x x
n
es
de
( )
|
|

\
|

x f
O . Entonces, si ( ) x f es muy pequeo se tiene que
( )
>>

x f
y se dice
que la raz x est mal condicionada.
El mismo argumento puede repetirse cuando se trata de una raz de multiplicidad m ,
caso en el que::
( )
0 ) ( ) ( ) (
1
= = =

x f x f x f
m
K .
En tal caso:
( )
( )
m
m
n
x f
m
x x O
1
!
|
|

\
|

=
El exponente m 1 implica que las races mltiples son en general mal condicionadas.
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 8
Considrese por ejemplo: ( ) 0 1 2
2
= + = x x x f , que tiene una raz doble 1 = x .
Supngase que se trabaja con aritmtica de punto flotante y 8 decimales en la mantisa.
Entonces
8
2
1
10

= , y siendo ( ) 2 = x f se obtiene:
( )
4 4
2
1
2
2
8
2
1
10 7071 . 0 10
2
2
10

= = = K O x x
n

es decir, cualquier valor en el rango: 0,99992929 x 1,00007071 sera aceptado como
exacto, pudindose tener un error relativo de orden
5
10

.
-1
-0.5
0
0.5
1
0 1 2 3 4 5
x
p(x)

Siendo las races mltiples mal condicionadas, es de esperarse que la separacin
relativa de las races afecte el condicionamiento. Particularmente crtico es el caso en
que las races estn ms o menos uniformemente espaciadas, por ejemplo en:
( ) ( )( )( ) ( ) 0 ! 20 20615 210 20 3 2 1
18 19 20
= + + = = L L x x x x x x x x
Si en lugar del coeficiente 210 se tuviera un coeficiente (210 + ), se obtendran las
races:
0 =
9
10

=
1 a 10 1 a 10
11 85 . 10
12
13
i 11 . 0 38 . 12
14
15
i 72 . 0 37 . 14
16
17
i 88 . 0 57 . 16
18
19
i 35 . 0 67 . 18
20 20
Este ejemplo es particularmente mal condicionado, pero son frecuentes las dificultades
anlogas al evaluar los ceros (es decir, las races) de polinomios. La evaluacin de las
races de un polinomio es un problema numrico que debe evitarse, a menos que los
datos iniciales hayan sido los coeficientes del polinomio en forma explcita.
Raz bien
condicionada
Raz mal
condicionada
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 9
Aparte de un mal condicionamiento, las races mltiples reducen el orden de la
convergencia. As, por ejemplo, el mtodo de Newton, cuya convergencia es cuadrtica
cuando
n
x es aproximadamente una raz simple:
( )
( )
|
|

\
|


=
+
2
1
2
1
n n
x f
x f

tiene convergencia lineal cuando la raz es mltiple. Para una raz de multiplicidad m :
( ) ( )
2
1
1
1
n n m n
O + =
+

El mtodo de Newton modificado:
( )
( )
n
n
n n
x f
x f
m x x

=
+1

tiene todava convergencia cuadrtica, pero en general no es posible conocer m a priori.
Alternativamente, puede pensarse en procesos del tipo:
( )
( )
( )
n
n
n
x f
x f
x u

=

( )
( )
( )
( )
n
n
n
n
x u
x f
x f
x u


= 1

( )
( )
n
n
n n
x u
x u
x x

=
+1

Pero ntese que esto es poco efectivo cuando la raz es simple, puesto que se requiere
evaluar una funcin adicional, ( )
n
x f .
4.7. Mtodos para Calcular Races de Polinomios
En esta seccin se revisan algunos de los muchos mtodos especficos para evaluar las
races (ceros) de polinomios: ( ) 0
1
2
2
1
1
= + + + + + =


n n
n n n
a x a x a x a x x K
( )( )( ) ( ) 0
3 2 1
=
n
x x x x K
Es frecuente subestimar las dificultades que se presentan en problemas de este tipo.
Los mtodos mencionados en los acpites anteriores (Newton, secante y otros) son
tambin aqu aplicables, aunque pueden ser poco eficientes.
4.7.1 Mtodo de Bernoulli
Este es un proceso "clsico", que en general resulta poco apropiado, porque se obtiene
primero la raz de mayor mdulo.
Se toman n valores arbitrarios
n
t t t t L
3 2 1
, , (con 0
n
t ) y se calculan nuevos valores por
recursin:

=
n
i
i p i p
t a t
1

Esta es una ecuacin de diferencias, cuya solucin puede escribirse como:
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 10
p
n n
p p
p
r c r c r c t + + + = K
2 2 1 1

Las r
i
son races (distintas de cero) de:
( )

=
n
i
i n
i
n
r a r
1

es decir, las r
i
son las races del polinomio:
i i
r = .
Por tanto:
p
n n
p p
p
c c c t + + + = K
2 2 1 1

y si
1 1
>

K
n n
se tiene que:
n
t
t
Lim =


1
.
Esto es anlogo a una iteracin directa para determinar un valor propio de una matriz.
Tambin aqu la convergencia es lenta cuando
1

n n
. El proceso converge a
n
,
an cuando 0 =
n
c (gracias a los errores de redondeo). El inconveniente principal de
este mtodo es que extrae primero la raz de mayor mdulo y la "deflacin" con esta raz
(que no es exacta) puede introducir errores importantes en las otras races.
Supngase, por ejemplo, que:
( ) 75 . 0 25 . 0 25 . 1 2
2 3 4
+ = x x x x x f
.
Con 0
2 1 0
= = = t t t y 1
3
= t se obtienen:
k t
k

n
k
k
t
t

1

4 2.0 2.0
5 2.75 1.375
6 3.25 1.1818
7 4.3125 1.3269
8 6.7500 1.5652
9 10.9844 1.6273
10 17.0469 1.5519
...
15 125.113 1.5104
16 188.240 1.5046
...
19 632.809 1.4986
20 949497 1.5004
Ntese que la convergencia es lenta. Esto es frecuente. Despus de pocos pasos es
mejor cambiar a otros mtodos (v.g. Newton - Rapshon).
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 11
4.7.2. Mtodo de Graeffe (mtodo de los cuadrados de las races)
Este es un proceso que puede ser empleado para mejorar el condicionamiento de las
races, pero es inadecuado para completar la extraccin de las mismas.
Dado: ( ) 0
1
2
2
1
1 1
= + + + + + =


n n
n n n
a x a x a x a x x p K
O bien: ( )( )( ) ( ) 0 ) (
3 2 1 1
= =
n
x x x x x p K .
Puede formarse un nuevo polinomio
( ) ( ) ( ) ( ) ) ( ) ( ) ( ) ( 1
2 2 2
3
2 2
2
2 2
1
2
1 1 n
n
x x x x x p x p x = = L .
Como ( ) x solo contiene potencias pares de x , se puede definir:
( ) ( ) ) ( ) ( ) ( ) (
2 2
3
2
2
2
1 2 n
x x x x x x p = = K
Es decir, ( ) 0
2
= x p tiene races
2 2 2
1 n i
L L , que son justamente los cuadrados de
las races de ( ) 0
1
= x p . Del mismo modo pueden obtenerse ( ) ( ) ( ) x p x p x p
m
L
8 4
. Las
races de ( ) 0 = x p
m
, son las
m
i
donde
r
m 2 = .
Si se tienen coeficientes L
) (
3
) (
2
) (
1
, ,
r r r
a a a tales que:
( )
( ) ( ) ( ) ( )
0
1
2
2
1
1
= + + + + + =

r
n
r
n
n r n r n
m
a x a x a x a x x p K
los coeficientes a
1
(r+1)
, L
) 1 (
3
) 1 (
2
,
+ + r r
a a de ( ) x p
m 2
resultan:
( ) ( )
( ) ( )
( ) ( )
(
(

+ =

=
+
+
) , min(
1
2
1
1 2 ) 1 (
i i n
j
r
j i
r
j i
j r
i
i n r
i
a a a a
Y para m (o r ) suficientemente grande, puede escribirse:
( ) r m
a
1 1

( )
( )
K
r
r
m
a
a
1
2
2

( )
( ) r
k
r
k m
k
a
a
1

Estas expresiones permiten, en teora, determinar los valores absolutos de las races.
Los signos deben obtenerse por sustitucin en el polinomio original ( ) 0 = x p .
Por ejemplo, considrese el polinomio ( ) 6 11 6
2 3
+ = x x x x p (cuyas races 1, 2, 3
estn uniformemente espaciadas y por tanto estn mal condicionadas):
r m a
1
a
2
a
3

0 1 -6. 11. -6.
1 2 -14. 49. -36.
2 4 -98. 1393. -1296.
3 8 -6818.2 1.6864 x 10
6
-1.6796 x 10
6

4 16 -4.3112 x 10
7
2.8212 x 10
12
-2.8212 x 10
12

....
de donde
7 16
1
10 3112 . 4
4
7
12
16
2
10 5438 . 6
10 4.3112
10 2.8212
=


H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 12
99998 . 0
10 2.8212
10 2.8211
12
12
16
3
=


es decir 0003 . 3
1
9998 . 1
2
0000 . 1
3

Las races de ( ) ( ) ( )L x p x p x p
8 4 2
estn mejor condicionadas en cada paso. Sin
embargo, se observa un crecimiento muy rpido de los coeficientes (posible "overflow")
por lo que no pueden realizarse muchos pasos.
4.7.3. Mtodo de Laguerre
Un muy buen mtodo para extraer races de polinomios es el de Laguerre. En este
mtodo, las sucesivas aproximaciones a una raz se calculan mediante:
) ( ) (
) (
1
k k
k
k k
x H x p
x p n
x x

=
+

donde n es el grado del polinomio y:
( ) ( )( ) [ ] ) ( ) ( ) ( 1 1 ) (
2
k k k k
x p x p n x p n n x H =
Como en otros casos, debe considerarse el signo que evita la cancelacin, es decir,
aquel para el que
k k
x x
+1
resulta lo ms pequeo posible.
El mtodo de Laguerre requiere evaluar ( )
k
x p , ( )
k
x p y ( )
k
x p en cada paso, pero la
convergencia (para races simples) es cbica. Si las races son reales, este mtodo
converge siempre. Suponiendo que la aproximacin inicial
0
x est en el intervalo entre
r
y
1 +

r
, converge a una de esas dos races. Si en cambio
1 0
< x o
n
x >
0
el
proceso converge a
1
o
n
, respectivamente.
Por ejemplo, considrese el polinomio:
( ) ( )( )( )( )( )( )( )( )
0 40320 109584 118124 67284 22449 4536 546 36
8 7 6 5 4 3 2 1
2 3 4 5 6 7 8
= + + + + =
= =
x x x x x x x x
x x x x x x x x x p

Con la aproximacin inicial 0
0
= x se obtienen:
k
x ( )
k
x p ( )
k
x p ( )
k
x p ( )
k
x H
0 40320 -109584 236248 5.499492E+10
0.937418 369.916 -6836.714 31394.812 1.639940E+09
0.999940 0.302 -5041.569 26140.729 1.245010E+09
1.000000
En forma similar, con la aproximacin inicial 5 . 2
0
= x :
k
x

( )
k
x p

( )
k
x p

( )
k
x p

( )
k
x H

2.5 121.816 -132.750 -977.625 7.532588E+06
2.838696 42.391 -277.131 60.892 3.618725E+06
2.994301 1.374 -242.118 367.294 2.844179E+06
3.000000
Aunque este mtodo puede ser usado tambin para extraer races complejas, en ese
caso no puede garantizarse la convergencia. Si se tuvieran pares de races complejas,
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 13
pero los coeficientes del polinomio fueran todos reales, sera aconsejable extraer
factores cuadrticos con el procedimiento descrito en la seccin 4.7.4
4.7.4. Mtodo de Bairstow (factorizacin iterativa de polinomios).
Un polinomio ( )
n n
n n n
a x a x a x a x x p + + + + + =


1
2
2
1
1
K puede expresarse como:
( ) ( ) ( ) ( ) ( ) s , r G s , r xF s , r , x q s rx x x + + + + =
2

.
Se requiere determinar s r, para que s rx x + +
2
sea un factor exacto de ( ) x p , es decir,
para que se tenga ( ) ( ) 0 , , = = s r G s r F . Siendo ste el caso, dos de las races (o un par
de races complejas) pueden obtenerse de 0
2
= + + s rx x ; el resto de las races son los
ceros de ( ) x q . Dados valores aproximados de s r, tales como
n
r y
n
s , se obtienen
valores mejorados,
1 + n
r y
1 + n
s , considerando:
( ) ( ) ( ) ( ) 0 , ,
,
1
,
1 1 1
+ +
+ + + +
n
s
n
r
n n
n
s
n
r
n n n n n n
ds
dF
s s
dr
dF
r r s r F s r F

( ) ( ) ( ) ( ) 0 , ,
,
1
,
1 1 1
+ +
+ + + +
n
s
n
r
n n
n
s
n
r
n n n n n n
ds
dG
s s
dr
dG
r r s r G s r G
de donde, con la notacin
ds
dG
G
dr
dF
F
s r
= = L , se tiene:
n
s
n
r
r s s r
s s
n n
G F G F
G F F G
r r
,
1
|
|

\
|


=
+

n
s
n
r
r s s r
r r
n n
G F G F
G F F G
s s
,
1
|
|

\
|


=
+

Dado que el polinomio original ( ) x p es independiente de r y s , al derivar el polinomio
( ) ( ) G xF q s rx x x p + + + + =
2
con relacin a r y s se obtienen:
( ) 0 ) (
2
= + + + + +
r r r
G xF q s rx x xq
( ) 0 ) (
2
= + + + + +
s s s
G xF q s rx x q
es decir, los
r
F y
r
G son los coeficientes del residuo al dividir ( ) x q x entre
s rx x + +
2
mientras los
s
F y
s
G se obtienen como coeficientes del residuo al dividir
( ) x q tambin entre s rx x + +
2
.
La convergencia de este proceso depende de una buena aproximacin inicial.
El siguiente ejemplo ilustra un paso del proceso. Supngase que se tiene el polinomio:
( ) 0 25 25 14 5
2 3 4
= + + = x x x x x p

y un factor aproximado 4 4
2
+ x x (es decir 4 =
o
r , 4
0
+ = s ). Dividiendo ( ) x p entre
este factor (utilizando el procedimiento de Ruffini) se obtiene:
( ) x p 1 -5 14 -25 25
4
0
= r 4 -4 24
4
0
= s -4 4 -24
q(x) 1 -1 6 3 1
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 14
Y anlogamente:
-xq(x) -1 1 -6 0
4 -4 -12
-4 4 12
-1 -3 -14 12

-q(x) -1 1 -6
4 -4
-4 4
-1 -3 -2
y de estos resultados:
1
3
=
=
G
F

12
14
,
,
=
=
r
r
G
F

2
3
,
,
=
=
r
r
G
F

64 = =
r s s r
G F G F w

( )( ) ( )( )
4.0469
64
2 3 3 1
4
1
=

= r

( )( ) ( )( )
4.7813
64
12 3 14 1
4
1
=

= s

es decir: 4.7813 4.0469
2
1 1
2
+ = + + x x s x r x
En el siguiente paso se obtienen:
2547 . 1 = F

6350 . 0 = G

1003 . 13 =
r
F

7920 . 14 =
r
G

0938 . 3 =
s
F

5803 . 0 =
s
G

de donde 0973 . 4
2
= r , 9732 . 4
2
= s . El factor exacto es 5 4
2
+ x x .
El mtodo antes descrito es adecuado solo si la aproximacin inicial es cercana al factor
exacto (esto es anlogo a lo que ocurre con el mtodo de Newton). Pueden tambin
utilizarse las mismas ideas para separar factores de grado mayor que 2.
4.7.5. Mtodo de Jenkins y Traub
Este proceso tiene algunas similitudes con el mtodo de iteracin inversa para hallar
vectores caractersticos. Converge a la raz de menor mdulo (lo que es beneficioso
para una "deflacin" adecuada; vase la seccin 4.7.6) y permite efectuar translaciones
para acelerar la convergencia. Es probablemente el mejor de los mtodos para extraer
races de polinomios (pero en algunos casos no es el ms eficiente). El algoritmo tiene 3
etapas:
a. Dado el polinomio
i n
i
n
i
x a x p

=

=
0
) ( con 0 , 1 =
n o
a a , se determina:
( )
( )
1
0
0
) ( ) (

=

= =
i n
i
n
i
x a i n x p x h

H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 15
y por recursin:
( ) ( )
( )
(

=
+
) (
) 0 (
) 0 (
) (
1
) (
1
x p
p
h
x h
x
x h
k
k k
L 2 , 1 , 0 = k
A medida que k crece, las razones entre los coeficientes de
( )
) (x h
k
y aquellos de
( )
) (
1
x h
k +
tienden a hacerse constantes e iguales a la raz de menor mdulo:
( )
( )
) 0 (
) 0 (
1
1
+

k
k
h
h

b. En una segunda etapa, con una translacin fija
1 0
r s , se determinan:
( )
( )
( )
( )
(
(

=
+
) (
) (
) (
) (
1
) (
0
0
0
1
x p
s p
s h
x h
s x
x h
k
k k

c. Y finalmente se refina la aproximacin con translaciones variables en cada paso:
( )
( )
( )
( )
1
1
1
r
s h
s h
s s
k
k
k
k
k k
+ =

+

( )
( )
( )
( )
(
(

=
+
+
+
+
) (
) (
) (
) (
1
) (
1
1
1
1
x p
s p
s h
x h
s x
x h
k
k
k
k
k
k

Cada paso de este mtodo requiere ) 2 ( n O operaciones.
En lo que sigue se analiza cmo el proceso converge. El polinomio cuyas races se
buscan puede expresarse en la forma:
( ) ( ) ( ) ( ) 0
3
3
2
2
1
1
= = K
m m m
x x x x p

donde L
3 2 1
, , m m m son las multiplicidades de las races.
El mtodo se inicia con
( )
) ( ) (
0
x p x h = , que es un polinomio de grado 1 n . Este
polinomio puede escribirse en la forma:
( ) ( )
( )


=
i
i
x
x p
c x h
) (
) (
0 0

donde
( )
i i
m c =
0
. Puede probarse por induccin que los sucesivos polinomios
( ) ( ) ( )L x h x h x h
) 3 ( ) 2 ( ) 1 (
son tambin polinomios de grado 1 n . Supngase que:
( ) ( )
( )


=

i
k
i
k
x
x p
c x h
) (
) (
1 1

Entonces:
( )
( )
( )
( )
(
(

) (
) (
) (
) (
1
) (
1
1
x p
s p
s h
x h
s x
x h
k
k
k
k
k
k

( )
( )
( )
( )
( )
(


=


i k
k k
i
k i
k
i
k
s
s p
c
s p
x p
x
x p
c
s x
) (
) (
) ( ) ( 1
1 1

( )
( ) ( )
( )
( )


=

=

i
k
i
i k i
k
i
x
x p
c
x
x p
s
c

) ( ) (
1

es decir, si
( )
) (
1
x h
k +
es un polinomio de grado 1 n , tambin lo es
( )
) (x h
k
.
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 16
Adems:
( )
( )
) ( ) ( ) ( ) ( ) (
3 2 1
1
k i i i i
i
k i
k
i k
i
s s s s
m
s
c
c

=

=

K

y si se consideran translaciones
j
s tales que: K
j j j
s s s < <
3 2 1

se tiene que (considerando multiplicidades m
i
iguales): K
) (
3
) (
2
) (
1
k k k
c c c > > y por lo tanto:
( )
( )
( )
) (
) (
1
x h
x h
Lim s
k
k
k
k i


=

Esta expresin puede tambin usarse para determinar las translaciones ms adecuadas:
( )
( )
( )
( )
) (
) (
) (
) (
1
1
k
k
k
k
k
k
k
k
k
k k
s w
s w
s
s h
s h
s s

= + =

+

donde:
( )
( )
) (
) (
) (
x h
x p
x w
k
k
=
La ltima expresin puede probarse considerando que:
( )
( )
( )
( )
k
s x
k
k
k
k
k
k
k
x p
s p
s h
x h
s x
s h
=

(
(

= ) (
) (
) (
) (
1
) (
1
1

y utilizando la regla de L' Hospital.
Por otro lado, dado que 0 ) ( =
i
p , se tiene que
( )
0 ) ( =
i
k
w y por lo tanto:
( )
( )
) (
) (
1
k
k
k
k
k k
s w
s w
s s

=
+

Esta expresin es anloga a la utilizada en el mtodo de Newton. Considerando
k k
s c =
1
puede escribirse:
( )
( )
2
1
1
2
1
1
) (
) (
k
k
k
k
w
w




+

pero en este caso la funcin
) (k
w es variable en cada paso:
( )
) (
) (
) (
) (
x h
x p
x w
k
k
=
( ) ( )
( )
) ( ) (
) (
) (
1
x p x g
x
x p
c x h
k
i
k
+

=
Para
1
x se tiene: ) (
) (
1
1
x g
x
>>

y por lo tanto:
( )
( )
( )
( )
( )
1 1
1
) ( ) (
) (
) (
+

= =
x x g c
x
x h
x p
x w
k k
k

puede aproximarse por:
( ) ( ) [ ] K
2 ) (
1 1
1 ) (
1 1
) (
) ( ) ( ) ( ) (

=
k k k
c x x g c x x w
de donde:
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 17
( )
2
1
1 1
1
) (
k
k
k
c
g


+

pero
( ) ( )
K
1
) 2 (
1
) 1 (
1
1
) 1 (
1 ) (
1

=

=
k k
k
k
k
k
k
k
c c
s
c
c
y entonces:
( )
2
1 1 k k k k
=
+
L
( )
2
1 1
=
k k k
K
de donde
1
1
3
1

+
=
k k k
y considerando

+
=
k k
C
1
se obtiene finalmente 62 . 2 = .
El orden de convergencia es superior al del mtodo de Newton.
Considrese, por ejemplo, el polinomio: 1 2 ) (
2
+ = x x x p (cuyas races son iguales
= =
2 1
1). En este caso:
( )
2 2 ) ( ) (
0
= = x x p x h

( ) ( )
( )
2 2 ) (
) 0 (
) 0 (
) (
1
) (
0
0 1
=
(

= x x p
p
h
x h
x
x h
y es evidente que, si se continuara con el proceso,
( )
2 2 = x ) x ( h
n
Es decir, en un paso
se tiene convergencia. Esto se debe a que en realidad se tiene una sola raz con
multiplicidad 2.
( )
( )
1
2
2
0
) (
) (
1
1
=

+ = + =

s h
s h
s
k
k

Para el siguiente ejemplo: 0 2 3 ) (
2
= + = x x x p (cuyas races son =
1
1, =
2
2):

2
x
1
x
0
x ) (
1 k
s h
k
s ) (
k
s h ) (
k
s p
1 ) (x p 1. -3. 2.
2 ( )
) ( ) (
0
x p x h =
2. -3. 0. -3. 2.
3 1.5 ) (x p 1.5 -4.5 3.
4 (2)+(3)

1.5 -2.5 0.
5 ( )
) ( / ) 4 (
1
x h x =
1.5 -2.5 -2.5 1.2 -0.70 -0.16
6 -4.375 ) (x p -4.375 13.125 -8.750
7 (5)+(6)

-4.375 14.625 -11.250
8 ) 2 . 1 ( ) 7 ( x / -4.375 9.375 4.125 1.0303 4.8674 -0.029385
9 165.645 ) x ( p 165.645 -496.934 331.290
10 (8)+(9)

165.645 -501.309 340.664
11 ) 00303 . 1 /( ) 10 ( x 165.645 -330.644 -159.979 .999878 -165.019 0.000122
12 1352450 ) (x p 1 352 450 -4 057 350 2 704 900
13 (11)+(12)

1 352 450 -4 057 184 2 704 569
14 ) 999878 . /( ) 13 ( x 1 352 450 -2 704 899 -1 352 614 1.000000 La primera raz
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 18
4.7.6 Deflacin
El polinomio ) x ( p , de grado 1 n , puede escribirse como: ( ) r x q a x x p + = ) ( ) ( , donde
( ) x q es un polinomio de grado 1 n y ) a ( p r = . Si
1
= a es una raz exacta de
( ) 0 = x p , se tiene 0 = r . Las races restantes son las races de ( ) 0 = x q . Para el
cmputo de estas otras races puede entonces trabajarse con el cociente ( ) x q en lugar
de ( ) 0 = x p . Esto es una "deflacin". La deflacin puede repetirse a medida que se
obtienen otras races. Es evidente que esto ahorra operaciones.
Sin embargo, a medida que se calculan las races stas no pueden obtenerse en forma
exacta y la deflacin con una raz que es solo aproximada produce un polinomio q(x) que
est afectado por esos errores.
Considrese, por ejemplo, 0 100 101
2
= + x x , cuyas races exactas son =
1
1, =
2
100.
Si se obtiene primero la raz
2
(aquella de mayor mdulo) con un 0,1% de error:

2
100.1, la deflacin produce:
( ) x p 1 -101. 100.

2
100.1 100.1 -90.09
( ) x q 1 -0.9 9.91
Es decir, se obtiene ( ) 9 0. x ) x ( q = , y haciendo 0 = ) x ( q resulta 9 0
1
. . Ntese que
un error de 0,1% en
2
produce un error de 10% en
1
. Si en cambio se determina
primero la raz menor, tambin con un error de 0,1%,
1
1.001:
( ) x p 1 -101. 100.

1
1.001 1.001 -100.099
( ) x q 1 -99.999 0.099
y de ( ) 0 999 99 = = . x ) x ( q : se obtiene 999 99
2
. :, con slo un 0,001% de error.
En conclusin, los errores introducidos por la deflacin son menores si las races se
determinan en orden ascendente de valores absolutos.
4.8. SISTEMAS DE ECUACIONES NO LINEALES
En algunos problemas acadmicos la solucin de sistemas de ecuaciones no lineales
puede ser hecha por simple eliminacin. Por ejemplo, para determinar los puntos en los
que se intersectan el crculo 3
2 2
= + y x y la hiprbola 1
2 2
= y x , basta restar y
sumar ambas expresiones (obtenindose 2 = x , 1 = y ).
Sin embargo, en la mayor parte de los casos prcticos ser necesario iterar. Muchos de
los mtodos antes descritos para resolver una ecuacin no lineal pueden generalizarse
para resolver sistemas de ecuaciones no lineales:
( ) 0 , , ,
3 2 1
=
n i
x x x x f K n i K , 3 , 2 , 1 =
0 x f = ) (
Iteracin directa
Un proceso simple puede ser obtenido rescribiendo estas ecuaciones como:
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 19
( )
n i i
x x x x g x K , , ,
3 2 1
= n i K , 3 , 2 , 1 =
) (x g x =
lo que permite iterar con
( ) ( ) ( ) ( ) ( )
( )
k
n
k k k
i
k
i
x x x x g x K , , ,
3 2 1
1
=
+

o bien con
( ) ( ) ( ) ( ) ( )
( )
k
n
k
i
k k
i
k
i
x x x x g x K K , , ,
1
1
2
1
1
1
+
+ + +
=
Estos son los equivalentes no lineales de los mtodos de Jacobi y Gauss Seidel.
Tambin aqu puede establecerse un criterio de convergencia similar a 1 ) ( < x g .
Definiendo la matriz D, con coeficientes:
j
i
ij
x
g
x d

= ) (
se tiene que los valores caractersticos de la matriz D deben ser tales que: 1 <
i
. Con
frecuencia se presentan sistemas no lineales de la forma: ) (x g a x h + = donde las
j i
x g son finitas. Entonces, para h suficientemente pequeo, el proceso iterativo
( ) ( )
) (
1 k k
h x g a x + =
+
satisface las condiciones de convergencia.
Por ejemplo, sea el sistema de ecuaciones (no lineales):
) ( cos
) ( sen
2
1
2
1
y x y
y x x
=
+ =

Puede iterarse con:
) ( cos
) ( sen
) ( ) 1 (
2
1
) 1 (
) ( ) (
2
1 ) 1 (
k k k
k k k
y x y
y x x
=
+ =
+ +
+

Obtenindose (con la aproximacin inicial 0
) 0 ( ) 0 (
= = y x ):
k
) (k
x
) (k
y
1 0 0.5
2 0.239 712 729 0.483 158 048
3 0.330 770 125 0.494 205 706
4 0.367 265 691 0.495 976 965
5 0.379 977 102 0.496 639 778
...
10 0.386 424 387 0.496 949 307
...


20
0.386 450 795 0.496 950 555
Mtodo de Newton
Tambin el mtodo de Newton - Raphson puede ser generalizado para sistemas de
ecuaciones no lineales:
( ) ( ) ( ) ( ) ( )
( ) 0 ( ) ( ) (
1 1
= +
+ + k k k k k
) x x x D x f x f
En la seccin 4.7.4 se present una aplicacin de estas ideas. El proceso converge si
( ) k
x es suficientemente cercano a la solucin exacta x , lo que es relativamente fcil
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 20
cuando las no linealidades no son muy fuertes y se combina el mtodo de Newton -
Raphson con un proceso incremental.
Para el caso particular de dos ecuaciones no lineales:
0 ) , (
0 ) , (
2
1
=
=
y x f
y x f

puede escribirse:

|
|
|
|

\
|

+
+
0
0
) ( ) 1 (
) ( ) 1 (
2 2
1 1
2
1
k k
k k
y y
x x
y
f
x
f
y
f
x
f
f
f

expresin en la que
1
f ,
2
f y sus derivadas se calculan con la aproximacin
) ( ) (
,
k k
y x .
Luego se obtienen:

+
+
x
f
f
x
f
f
y
f
f
y
f
f
d
y
x
y
x
k
k
k
k
1
2
2
1
1
2
2
1
) (
) (
) 1 (
) 1 (
1

siendo
x
f
y
f
y
f
x
f
d

= =
2 1 2 1
) ( det D .
Considrese, por ejemplo:
0 1 ) 5 . 0 ( ) 1 ( ) , (
0 1 ) , (
2 2
2
2
1
= + =
= + =
y x y x f
y x y x f

Estas ecuaciones tienen dos soluciones:
) 472 721 581 476 . 0 , 092 790 146 215 . 1 (
) 550 347 344 984 . 0 , 762 549 122 125 . 0 (
2
1
=
=
r
r

Con la aproximacin inicial ) 0 , 0 ( se obtienen:
k
) (k
x
) (k
y
1
f
2
f
0 0.000000 0.000000 -1.000000 0.250000
1 -0.375000 1.000000 0.140625 1.140625
2 0.125000 1.234375 0.250000 0.304932
3 0.095595 0.991726 0.000865 0.059743
4 0.125088 0.985223 0.000870 0.000912
5 0.125122 0.984344 0.000000 0.000001
6 0.125123 0.984344 0.000000 0.000000
Con otras aproximaciones iniciales, como por ejemplo ) 0 , 1 ( ) 1 , 1 ( , se obtiene
2
r
Mtodo de Mxima Gradiente
El mtodo de Newton tiene convergencia cuadrtica, pero requiere una buena
aproximacin inicial. Con tal fin, puede emplearse el mtodo de mxima gradiente, cuya
convergencia es lenta pero est garantizada (siempre que D sea no singular).
H. Scaletti - Mtodos Numricos: Ecuaciones No Lineales 4 - 21
La solucin del sistema de ecuaciones no lineales 0 x f = ) ( es aquella que hace mnima
la funcin:
[ ]

=
= =
n
i
n i
T
x x x f F
1
2 1
) , , ( ) ( ) ( ) ( L x f x f x
Partiendo de una aproximacin
) 0 (
x se hacen correcciones de la forma:
f D x x x
T
k
k
k
k k
F 2
) ( ) ( ) 1 (
= =
+

k
debe ser tal que ) ( ) (
) ( ) 1 ( k k
F F x x <
+
.
Aproximaciones
La evaluacin de los
2
n coeficientes de la matriz
( )
)
k
x D( , es decir:
j i ij
x f d =
puede requerir demasiadas operaciones, por lo que es comn volver a evaluar D solo
cada cierto nmero, m , de pasos (y no en cada paso). Se tiene as el mtodo de
Newton - Raphson modificado:
( ) ( ) ( ) ( )
( ) 0 ( ) (
1
= +
+ k k p k
) x x x D x f m p p p k + + = K , 1 , .
Esto tambin ahorra muchas operaciones al resolver el sistema de ecuaciones lineales
para determinar las x
(k+1)
, puesto que la matriz D solo debe reducirse cada m pasos.
Tambin pueden utilizarse mtodos anlogos al mtodo de la secante. Una
aproximacin frecuente es:
( )
j
i j j i
j
i
ij
h
f h f
x
f
d
) (
) (
x e x
x
+
=


donde
j
e es la columna j de la matriz identidad de orden n , y los 0
j
h son
arbitrarios, por ejemplo:
( ) ( ) k
j
k
j j
x x h =
1
(esto es el mtodo de la secante, que da un
orden de convergencia de aproximadamente 1.6). Si en cambio se toma
( )
) ( f h
k
j j
x =
se obtiene una generalizacin del mtodo de Steffensen.
Otra posibilidad consiste en derivar 0 = ) ( x f con respecto a un parmetro, :
0 = +

f x
x
f

lo que permite utilizar muchos de los procesos para resolver sistemas de ecuaciones
diferenciales ordinarias descritos en el captulo 6. Por ejemplo, pueden considerarse
D
x
f
=

x
x
=

f
f
=


y entonces:
( ) ( ) ( ) k k k
f x x D = ) (
( ) ( ) ( ) k k k
x x x + =
+1

Este es el mtodo de Euler, un proceso simple pero no siempre adecuado.

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 1
5. Interpolacin, Diferenciacin e Integracin Numrica
5.1. Diferencias Finitas
Dadas las abscisas
k
x , uniformemente espaciadas: h x x
k k
+ =
+1
, a las que
corresponden valores ( )
k k
x f f , se definen las primeras diferencias finitas hacia
adelante como:
k k k
f f f =
+1
.
Anlogamente pueden definirse las segundas diferencias:
k k k k k k
f f f f f f + = =
+ + + 1 2 1
2
2
y en general las diferencias finitas hacia adelante de orden n :
k
n
k
n
k
n
f f f
1
1
1
+

=
( )
i n k
n
i
i
k
n
f
i
n
f
+
=
|
|

\
|
=
0
1
donde:
( )! !
!
i n i
n
i
n

=
|
|

\
|

Una tabla de diferencias es un arreglo de la forma:
k
k
f
k
f
k
f
2

k
f
3

k
f
4

k
f
5

k
f
6

k
f
7

0 0 0 0 0 1 -5 15 -35
1 0 0 0 1 -4 10 -20 35
2 0 0 1 -3 6 -10 15
3 0 1 -2 3 -4 5
4 1 -1 1 -1 1
5 0 0 0 0
6 0 0 0
7 0 0
8 0
Puede apreciarse como un pequeo error en las
k
f puede amplificarse en las
diferencias finitas altas, lo que puede ser til para identificar posibles errores en una
tabla de ( ) x f .
Las diferencias finitas tienen ciertas propiedades anlogas a las derivadas. As por
ejemplo:
( )
k k k k
v c u c v c u c + = +
2 1 2 1

( )
k k k k k k
u v v u v u + =
+1

1 +

=
|
|

\
|

k k
k k k k
k
k
v v
v u u v
v
u

( ) ( )


=
+

=
=
1
0
1 0 0
1
0
n
i
i i n n
n
i
i i
v u v u v u v u

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 2
En forma similar, pueden definirse diferencias finitas hacia atrs:
1
=
k k k
f f f
1
1 1


=
k
n
k
n
k
n
f f f
y diferencias centrales:
2
1
2
1
+
=
k k
k
f f f

1 1
2
2
2
1
2
1 +
+
+ = =
k k k
k k
k
f f f f f f

.....
2
1
2
1
1 1

=
k
n
k
n
k
n
f f f

Estas diferencias estn relacionadas:
2
1 1
+
+
= =
k
k k
f f f

Y en general:
2
n
k
n
n k
n
k
n
f f f
+
+
= =

Para puntos con espaciamiento no uniforme pueden calcularse diferencias divididas:
] , [
) ( ) (
] , [
0 1
1 0
1 0
1 0
x x
x x
x f x f
x x =

=

2 0
2 1 1 0
2 1 0
] , [ ] , [
] , , [
x x
x x x x
x x x

=

...
n
n n
n
x x
x x x x x x
x x x x

=

0
2 1 1 1 0
2 1 0
] , , [ ] , , [
] , , , [
L L
L

Por ejemplo:
k
k
x
k
f [ ] L
1
,
+ k k
x x

0 0 -5 6 2 1 0 0
1 1 1 12 6 1 0
2 3 25 30 11 1
3 4 55 63 15
4 6 181 108
5 7 289
Para el caso de puntos con espaciamiento uniforme, h , las diferencias divididas pueden
relacionarse con diferencias finitas hacia delante:
n
i
n
n i i i i
h n
f
x x x x
!
] , , , [
2 1

=
+ + +
L

y en forma similar con diferencias finitas centrales o hacia atrs.
Si ) (x f es un polinomio de grado n , las diferencias finitas (de cualquier tipo) de orden
1 + n o superior obtenidas con los ) (
k k
x f f = son cero. En el ejemplo anterior ) (x f es
un polinomio de tercer grado.

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 3
5.2. Interpolacin
Supngase que se tiene una tabla de valores tales como:
n
x ) (
k
x f
0 1.000 000
0.1 0.995 004
0.2 0.980 067
0.3 0.955 336
0.4 0.921 061
0.5 0.877 582
Y se requiere calcular ) 25 . 0 ( f . Para ello, ) (x f puede aproximarse localmente por una
funcin ms simple, ) (x g , tal que ) ( ) (
k k
x f x g = . El caso ms comn es aquel en que
) (x g es un polinomio, pero tambin son frecuentes las aproximaciones con funciones
trigonomtricas, por ejemplo:
L L + + + + + + = x b x b x a x a a x g 2 sen sen 2 cos cos ) (
2 1 2 1 0

En lo que sigue se hace nfasis en interpolaciones polinmicas. Dados 1 + n puntos
) ( ,
k k
x f x , slo un polinomio de grado n , ( ) x p
n
, satisface las condiciones
) ( ) (
k k n
x f x p = para todo k . Sus coeficientes,
i
a , podran obtenerse resolviendo:

|
|
|
|
|
|
|

\
|
M M
K
K
K
K
K
) (
) (
) (
) (
1
1
1
1
3
2
1
0
3
2
1
0
3
3
2
3 3
3
2
2
2 2
3
1
2
1 1
0
2
0 0
x f
x f
x f
x f
a
a
a
a
x x x
x x x
x x x
x x x

pero esto no es prctico. Otros mtodos ms eficientes se revisan a continuacin.
5.2.1 Frmulas de Interpolacin de Newton y Otras Expresiones Anlogas.
Para puntos uniformemente espaciados:

+
+ = +
1
0 0 0
!
) 1 ( ) 2 ( ) 1 (
) (
j
j
f
j
j
f h x f

L

Esta expresin es fcil de obtener considerando un operador E tal que
1 +
=
k k
f f E , es
decir + =1 E . Como
n k k
n
f f E
+
= , puede escribirse:
0 0 0
) 1 ( ) ( f f E h x f

+ = = + .
Generalmente se consideran solo algunos trminos de esta serie.
Por ejemplo, despreciando las diferencias de orden 3 o superior:
= + + +
k k k k
f f f h x f
2
2
1
) 1 ( ) (
2 1
2
) 1 (
) 2 (
2
) 2 ( ) 1 (
+ +

+ +

=
k k k
f f f




Considerando los valores numricos:
k
k
x
) (
k
x f
2 0.2 0.980 067
3 0.3 0.955 336
4 0.4 0.921 061

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 4
(para los que 1 . 0 = h ), el valor de ) 25 . 0 ( f podra obtenerse con 5 . 0 = :
( ) ) 921061 . 0 (
2
) 5 . 0 ( ) 5 . 0 (
) 955336 . 0 ( ) 5 . 1 ( ) 5 . 0 ( ) 980067 . 0 (
2
) 5 . 1 ( ) 5 . 0 (
5 . 0
2

+ +

= + h x f
de donde ( ) 895 968 . 0 25 . 0 f (el valor exacto es 912 968 . 0 )
La expresin anterior es la frmula de interpolacin de Newton con diferencias finitas
hacia adelante. Similarmente puede escribirse la frmula de Newton con diferencias
hacia atrs:

+ + +
+ = +
1
!
) 1 ( ) 2 ( ) 1 (
) (
j
n
j
n n
f
j
j
f h x f

L

o la frmula de Newton con diferencias divididas:
[ ] [ ]
[ ] L + +
+ + + =
) ( ) ( ) ( , , ,
) ( ) ( , , ) ( , ) (
2 1 0 3 2 1 0
1 0 2 1 0 0 1 0 0
x x x x x x x x x x
x x x x x x x x x x x f x f

Esta ltima expresin es vlida tambin para puntos con espaciamiento no uniforme.
Considrese por ejemplo la tabla de diferencias divididas:
i
i
x
i
f [ ]
1
,
+ i i
x x [ ]
2
,
+ i i
x x L [ ]
3
,
+ i i
x x L [ ]
4
,
+ i i
x x L
-1 0. 1.000 000 -0.099 667 -0.492 113 0.037 106 0.039 670
0 0.2 0.980 067 -0.247 301 -0.477 270 0.060 908 0.037 594
1 0.3 0.955 336 -0.342 755 -0.452 907 0.079 705
2 0.4 0.921 061 -0.478 627 -0.421 025
3 0.6 0.825 335 -0.604 934
4 0.7 0.764 842
+ + + = ) 3 . 0 25 . 0 ( ) 2 . 0 25 . 0 ( ) 477270 . 0 ( ) 2 . 0 25 . 0 ( ) 247301 . 0 ( 980067 . 0 ) 25 . 0 ( f
968914 . 0 ) 4 . 0 25 . 0 ( ) 3 . 0 25 . 0 ( ) 2 . 0 25 . 0 ( ) 060908 . 0 ( = + + L
(Este es el resultado con 5 trminos, con 3 trminos se obtiene 0.968 895)
Otra alternativa es interpolar con diferencias centrales:
L + + + + + = +
+ +
2
1
2
1
3
6
1 2
2
1
) 1 ( ) 1 ( ) 1 ( ) (
k
k
k
k k
f f f f h x f
L + + + + + + = +

2
1
2
1
3
6
1 2
2
1
) 1 ( ) 1 ( ) 1 ( ) (
k
k
k
k k
f f f f h x f
Estas son las frmulas de Gauss. Promediando las dos expresiones se obtiene la
frmula de Stirling:
( ) L +
|

\
|
+

+ +
|

\
|
+ + = +
+ +
2
1
2
1
2
1
2
1
3 3
2
2
2
12
) 1 (
2 2
k k
k
k k
k k
f f f f f f h x f


5.2.2. Frmula de Interpolacin de Lagrange
Esta frmula es ms adecuada para anlisis tericos que para el cmputo prctico. El
polinomio de interpolacin se obtiene como:

=
=
m
i
i i
f x g x p
0
) ( ) (

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 5
Los polinomios ) (x g
i
se obtienen multiplicando n binomios:
( )
( )

=
m
i j
j j i
j
i
x x
x x
x g
0
) ( .
Ntese que
ij j i
x g = ) ( .
El siguiente ejemplo es ilustrativo:
k
k
x
k
f
0 0. -5.
1 1. 1.
2 3. 25.
) 3 4 (
) 3 0 ( ) 1 0 (
) 3 ( ) 1 (
) (
2
3
1
0
+ =


= x x
x x
x g
) 3 (
) 3 1 ( ) 0 1 (
) 3 ( ) 0 (
) (
2
2
1
1
x x
x x
x g + =


=
) (
) 1 3 ( ) 0 3 (
) 1 ( ) 0 (
) (
2
6
1
2
x x
x x
x g =


=
5 4 2 ) ( ) (
2
2
0
+ = =

=
x x f x g x p
i
i i

5.2.3. Interpolacin de Hermite.
En algunos casos es conveniente trabajar con los valores de la funcin, ( ) x f y un cierto
nmero de sus derivadas
( )
) ( ), ( ), ( ), ( x f x f x f x f
m
K . Dados los valores
( ) m
k k k k
f f f f K , , , en n puntos de abscisas
k
x , es posible determinar un polinomio ( ) x p
de grado ( ) 1 1 + n m que satisfaga:
( ) ( )
1 , 1 , 0
, 1 , 0 ) ( ) (
=
= =
n j
m i x f x p
j
i
j
i
K
K

La interpolacin de una funcin cuando una o ms de sus derivadas son conocidas en
cada punto se llama interpolacin de Hermite. ( ) x p puede obtenerse utilizando la frmula
de Newton con diferencias divididas y considerando que:
[ ]
( )
) (
) ( ) (
,
0
0 1
0 1
0 0
0 1
x f
x x
x f x f
Lim x x
x x
=


[ ]
[ ]
( )
1 0
1 0 0
1 0 0
, ) (
, ,
x x
x x x f
x x x


=
Tambin podran usarse las expresiones de Lagrange, considerando primero puntos a
una distancia pequea, , y luego identificando a las derivadas con los lmites de
diversas expresiones para 0 .
El siguiente ejemplo es ilustrativo. Se trata de determinar un polinomio ( ) x p de grado 3,
tal que:
( )
( )
( )
( )
B
A
B
A
L p
p
v L p
v p

=
=
=
=
0
0


H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 6
k
k
x
k
f [ ]
1
,
+ k k
x x [ ]
2 1
, ,
+ + k k k
x x x [ ]
3 2 1
, , ,
+ + + k k k k
x x x x
0 0
A
v
A

L L
v v
A A B

2

( )
2 3
2
L L
v v
B A A B
+
+


1 0
A
v
L
v v
A B


2
L
v v
L
A B B


2 L
B
v
B

3 L
B
v
Se han tomado datos de esta tabla siguiendo una trayectoria horizontal.
( ) ( ) ( )
( )
( ) ( ) L x x
L L
v v
x
L L
v v
x v x p
B A B A A A B
A A
|

\
| +
+

+ |

\
|

+ + =
2
2 3
2
2
0
2
0 0


( ) ( ) ( ) ( ) L L v v x p
B A B A
+ + + = 1 1 2 3 2 3 1 ) (
2 2 3 2 3 2
donde
L
x
= .
5.2.4. Interpolacin Inversa.
En la solucin de 0 ) ( = x f pueden obtenerse aproximaciones a una raz, x , por
interpolacin de una funcin inversa con ordenadas
k
x para abscisas de espaciamiento
no uniforme, ) (
k
x f . Considrese, por ejemplo:
k
x ) (
k
x f
1. 1.76
2. 0.41
3. -0.16
4. -0.32
Usando la frmula de Lagrange con 4 puntos:
) 16 . 0 32 . 0 ( ) 41 . 0 32 . 0 ( ) 76 . 1 32 . 0 (
) 4 ( ) 16 . 0 0 ( ) 41 . 0 0 ( ) 76 . 1 0 (
) 32 . 0 16 . 0 ( ) 41 . 0 16 . 0 ( ) 76 . 1 16 . 0 (
) 3 ( ) 32 . 0 0 ( ) 41 . 0 0 ( ) 76 . 1 0 (
) 32 . 0 41 . 0 ( ) 16 . 0 41 . 0 ( ) 76 . 1 41 . 0 (
) 2 ( ) 32 . 0 0 ( ) 16 . 0 0 ( ) 76 . 1 0 (
) 32 . 0 76 . 1 ( ) 16 . 0 76 . 1 ( ) 41 . 0 76 . 1 (
) 1 ( ) 32 . 0 0 ( ) 16 . 0 0 ( ) 41 . 0 0 (
+
+
+
+
+
+
+
+ +
+ +
+
+ +
+ +
x

37 . 2 x
5.2.5. Generalizacin a Varias Dimensiones.
Las expresiones anteriores pueden fcilmente generalizarse para "mallas" de ms
dimensiones. As, si se tienen puntos con coordenadas
k j i
z y x , ,
( l k m j n i L L L 0 ; 0 ; 0 = = = ) las frmulas de Lagrange resultan:

= = =
=
n
i
m
j
l
k
ijk z y x
f z g y g x g z y x p
k j i
0 0 0
) ( ) ( ) ( ) , , (
donde
( )
( )

=
n
i r
r r i
r
xi
x x
x x
x g
0
) ( y expresiones similares en las direcciones z y, .
Frecuentemente los puntos estn uniformemente espaciados: x x x
i i
+ =
+1

y y y
i i
+ =
+1

z z z
i i
+ =
+1


H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 7
La figura muestra una zona de una malla bidimensional con espaciamiento uniforme.
Las coordenadas de un punto en la proximidad de A pueden definirse por dos
parmetros , (coordenadas relativas medidas en unidades y x , ).

O
x
E
D C B
A
H G F
y
x
y
P

Usando la frmula de Stirling, e incluyendo diferencias centrales hasta de 2orden
inclusive, se obtiene:
( )

+
=
+
=
= + +
1
1
1
1
0 0
,
i j
ij j i
f b a y y x x f
donde:
( ) 1
2
1
1
= a ( ) 1
2
1
1
= b
2
2
1 = a
2
2
1 = b
( ) 1
2
1
3
+ = a ( ) 1
2
1
3
+ = b
y es igualmente fcil desarrollar expresiones anlogas considerando un nmero mayor o
menor de puntos en cada direccin. La presencia de bordes curvos introduce algunas
dificultades (no es posible seguir teniendo un espaciamiento uniforme).
Sin embargo, en muchos casos es necesario trabajar con mallas no regulares, como la
mostrada en la figura siguiente. Las diferencias finitas no son entonces la herramienta
ms adecuada. El concepto de elementos finitos es til y permite un tratamiento ms
simple. La regin en estudio se divide en subregiones o elementos, conectados en un
nmero finito de nudos con los elementos adyacentes.
El valor de una funcin, f , en un punto en el interior de un elemento se obtiene
interpolando los valores de la funcin en los nudos del elemento:
i
N
i
i
f z y x N z y x f =

=1
) , , ( ) , , (


H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 8

Las funciones de interpolacin deben satisfacer:
ij j j j i
z y x N = ) , , ( (
j j j
z y x , , son las coordenadas del nudo j )
1 ) , , (
0
=

=
N
i
i
z y x N
Esto ltimo es evidente si se supone c f
i
= para todo j y entonces c z y x f = ) , , ( .
Adicionalmente, las
i
N deben ser tales que se mantenga la continuidad de f (y en
algunos casos la continuidad de una o ms derivadas) en los bordes entre elementos.
Es relativamente fcil construir estas funciones para elementos bidimensionales
rectangulares.
Por ejemplo, para un elemento con 4 nudos (con referencia al centroide):
4 , 3 , 2 , 1 1 1
4
1
) , ( =
|
|

\
|
+
|
|

\
|
+ = i
b
y
b
y
a
x
a
x
y x N
i i
i

b
4
1
a
3
2
a
b
X
Y
4
1
b
b
a a
Y
2
3
X
8 6
7
5

Y para un elemento con 8 nudos (con referencia al centroide):
|
|

\
|
+
|
|

\
|
+
|
|

\
|
+ = 1 1 1
4
1
b
y
b
y
a
x
a
x
b
y
b
y
a
x
a
x
N
i i i i
i
4 , 3 , 2 , 1 = i

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 9
|
|

\
|
+
|
|

\
|
|

\
|
=
b
y
b
y
a
x
N
i
i
1 1
2
1
2
7 , 5 = i
|
|

\
|
|

\
|

|
|

\
|
+ =
2
1 1
2
1
b
y
a
x
a
x
N
i
i
8 , 6 = i
Estos son los dos elementos ms simples de la familia de Serendip.

Las funciones de interpolacin para los correspondientes elementos tridimensionales son
similares.














En subregiones triangulares las funciones de interpolacin resultan ms simples si se
escriben en coordenadas de rea, L
1
, L
2
, L
3
.. Un punto en el interior de un tringulo
permite definir tres tringulos parciales, cuyas reas divididas entre el rea total del
tringulo son justamente las L
i
:
A
A
L
i
i
=
En consecuencia:
1
3 2 1
= + + L L L .

Las coordenadas y x, se relacionan con las
coordenadas de rea mediante:
x x L
i
i i
=

=
3
1
y y L
i
j j
=

=
3
1

Por otro lado si el origen de coordenadas y x, est en el centroide del tringulo:

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 10
y
A
c
x
A
b
L
i i
i
2 2 3
1
+ + =
donde:
k j i
y y b =
j k i
x x c =

k j i , , son permutaciones cclicas de 3 , 2 , 1 .
Para un elemento con 3 nudos, el valor de una funcin, ) , ( y x f , puede obtenerse por
interpolacin lineal de los tres valores nodales
3 2 1
, , f f f :

=
=
3
1
) , (
i
i i
f L y x f
es decir, ) , ( ) , ( y x L y x N
i i
= .
En forma similar, para un elemento con 6 nudos
(nudos adicionales al centro de cada lado), ) , ( y x f
puede obtenerse por interpolacin cuadrtica de
los valores nodales.
( ) 1 2 =
i i i
L L N 3 , 2 , 1 = i
1 3 6
3 2 5
2 1 4
4
4
4
L L N
L L N
L L N
=
=
=

(Los elementos triangulares de mayor orden son en
general poco tiles). Pueden escribirse fcilmente
expresiones anlogas para los correspondientes
elementos tridimensionales.
1
2
3
1
3
2
6
4
5

Para elementos ms complejos, la construccin de funciones de interpolacin puede
simplificarse si se efecta previamente un "mapeo" adecuado.













Por ejemplo, para el hexaedro de Serendip con 20 nudos:

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 11
( )

=
=
20
1
, , ) , , (
i
i i
f N f
( )( )( )( ) 2 1 1 1
8
1
+ + + + + =
i i i i i i i
N 8 , 1 L = i
( ) ( ) ( )
i i i i
g g g N , , , = 20 , 9 L = i
donde: ( )
i i
g + = 1 ) , (
2
1
si 1 =
i

( )
2
1 ) , ( =
i
g si 0 =
i
.
Las coordenadas z y x , , pueden asociarse con las , , usando las mismas funciones
de interpolacin:
( )
i
i
i
x N x , ,
20
1

=
=
( )
i
i
i
y N y

=
=
20
1
, ,
( )
i
i
i
z N z

=
=
20
1
, ,
en tal caso se dice que el elemento es isoparamtrico. Tambin puede hablarse de
elementos sub-paramtricos o hiper-paramtricos, segn las funciones utilizadas en el
mapeo sean de grado menor o mayor que aquellas con que se interpola la funcin, f .
Ntese que tambin es posible hacer mapeos con las coordenadas de rea.
5.3. Derivacin
Dados ) ( ) ( ), (
2 2 1 1 n n
x f f x f f x f f K puede obtenerse una aproximacin, ) (x g , a la
funcin ) (x f , tal que ) ( ) (
i i
x f x g = para n i K , 2 , 1 = . Este es el problema de interpolacin
considerado en la seccin 5.2. Entonces, las derivadas de ) (x f podran aproximarse,
localmente, por aquellas de ) (x g . Sin embargo, debe tenerse presente que pequeos
errores en los valores de la funcin pueden amplificarse enormemente al calcular las
derivadas. A mayor orden de la derivada, mayores son las probabilidades de errores de
cancelacin.
En lo que sigue se considera el caso de abscisas
n
x x x K
, 2 1
, con espaciamiento
uniforme, h . Para h suficientemente pequeo:
K + + = ) ( ) ( ) ( ) ( ) (
3
6
1 2
2
1
i i i i i
x f h x f h x f h x f h x f
K + = ) ( ) ( ) ( ) (
2
2
1
i i i i
x f h x f h x f x f h
de donde, con la notacin ) (
) ( ) (
i
m m
i
x f f = :
) ( ) (
1
h O
h
f
h O
h
f f
f
i i i
i
+

= +

=
+

y en forma similar se tienen:
) (
1
h O
h
f f
f
i i
i
+

=



H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 12
) (
2 2
1
2
1
h O
h
f f
f
i i
i
+

=
+

Incluyendo puntos ms alejados pueden obtenerse expresiones del tipo:
) (
3 2 6
1
1 2
1
1 3
1
h O
h
f f f f
f
i i i i
i
+
+
=
+ +

Pero las expresiones ms simples son las ms frecuentemente utilizadas.
Considrese por ejemplo los valores ( x cos ):
k
x ) (
k
x f ) (
k
x f
h
f
k


h
f f
k k
2
1 1 +


0. 1.000 000 0. 0.049 958
0.1 0.995 004 0.099 833 0.149 376 0.099 667
0.2 0.980 067 0.198 669 0.247 301 0.198 338
0.3 0.955 336 0.295 520 0.342 755 0.295 028
0.4 0.921 061 0.389 418 0.434 784 0.388 770
0.5 0.877 582 0.479 426
Igualmente, ) (x f puede ser aproximada por diferencias finitas de segundo orden:
( ) ( )
2 2 2
2
1 1
2
) ( h O f h O
h
f f f
f x f
i
i i i
i i
+ = +
+
= =
+

Por ejemplo, para la funcin de la tabla precedente:
97925 . 0
) 1 . 0 (
955336 . 0 ) 980067 . 0 ( 2 995004 . 0
) 2 . 0 (
2

+
f
El valor exacto es 980067 . 0 ) 2 . 0 ( sen =
y las derivadas de orden superior pueden ser aproximadas por las correspondientes
diferencias finitas.
Por ejemplo:
m
i
m
m
i
h
f
f

) (

m
i
m
m
i
h
f
f

) (

Cuando se tienen 2 o ms variables independientes, L t y x , , y mallas ortogonales de
puntos uniformemente espaciados, las derivadas parciales pueden aproximarse por
diferencias finitas trabajando separadamente con cada variable. As por ejemplo, para
h y x = = , el Laplaciano:
2
2
2
2
2
y
u
x
u
u

=
en un punto de coordenadas
j i
y x , puede aproximarse por:
2
1 , , 1 ,
2
, 1 , , 1 2
5
2 2
h
u u
h
u u u
u
j i j u j i j i j i j i
ij
+ + +
+
+
+
=
con un error de ( )
2
h O Ntese que en u
2
y
ij
u
2
5
el smbolo no es el operador para
diferencias hacia atrs.

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 13
Al utilizar elementos finitos, las derivadas se obtienen operando exactamente con las
funciones de interpolacin. As, si:
i
n
i
i
f z y x N f

=
=
1
) , , ( se tiene:
i
n
i
i
f
x
N
x
f

1
.
Algunos comentarios adicionales relativos al uso de elementos isoparamtricos son aqu
necesarios. Para elementos isoparamtricos las funciones de interpolacin
i
N estn
expresadas como funcin de L , , :
( )
i
n
i
i
f N f

=
=
1
, ,
y las coordenadas L , , estn relacionadas con las L z y x , , mediante las mismas
funciones de interpolacin, v.g.:
( )
i
n
i
i
x N x

=
=
1
, ,
Excepto para casos particulares de geometra muy simple, es prcticamente imposible
obtener expresiones explcitas para las L , , en funcin de las L z y x , , y lo mismo
puede decirse de las funciones de interpolacin, ( ) , ,
i
N . Como consecuencia, en
general es fcil obtener derivadas con relacin a las L , , , pero comparativamente
difcil obtener expresiones explcitas para las L , , ,
z
f
y
f
x
f

. Su evaluacin numrica
es, sin embargo, muy simple. Teniendo en cuenta que:

|
|
|
|
|
|
|

\
|

z
f
y
f
x
f
z y x
z y x
z y x
f
f
f



O en notacin ms compacta:
r
J
x

f f
. Los elementos de la matriz J y de
r
f
se
obtienen con expresiones e la forma:
i
n
i
i
i
n
i
i
z
N z
x
N x

=
=

1
1


M
Por otro lado, al obtenerse la matriz J puede hacerse el cambio de variables:
d d d dz dy dx = ) det( J
lo que facilita enormemente las integrales, ya que los lmites de integracin son en cada
caso 1 y 1 + .
5.4. Ecuaciones de Diferencias
Una frmula de recursin del tipo: ( ) n y y y y f y
k n n n n k n
, , , , ,
1 2 1 + + + +
= K se denomina
ecuacin de diferencias de orden k . La solucin de ecuaciones de diferencias tiene
cierta analoga con la solucin de ecuaciones diferenciales ordinarias.

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 14
La ecuacin
0
1 1
= + + + + +
+ + + n k j k n j k n k n
y a y a y a y K K
es una ecuacin de diferencias lineal, homognea, de orden k , con coeficientes
constantes. Esta ecuacin queda satisfecha por
j
j
cr y = . Los posibles valores de r
corresponden a las races de la ecuacin caracterstica:
0 ) (
1
2
2
1
1
= + + + + + =


k k
k k k
a r a r a r a r r p K .
Si la ecuacin caracterstica tiene k races distintas
k
r r r K , ,
2 1
la solucin general de la
ecuacin de diferencias (lineal, homognea, con coeficientes constantes) puede
escribirse:
j
k k
j j j
j
r c r c r c r c y K + + + =
3 3 2 2 1 1

Lo cual puede probarse por simple sustitucin. Si en cambio se tiene una raz de
multiplicidad m , deben considerarse trminos
j
r j q ) ( , donde ) ( j q es un polinomio de
orden 1 m . En cualquier caso la solucin tiene k constantes independientes.
Considrese por ejemplo: 0 6 5
1 2
= +
+ + n n n
y y y , con condiciones iniciales 0
0
= y ,
1
1
= y . Por recursin con
n n n
y y y 6 5
1 2
=
+ +
se obtienen:
5 ) 0 )( 6 ( ) 1 )( 5 (
2
= = y
19 ) 1 )( 6 ( ) 5 )( 5 (
3
= = y
65 ) 5 )( 6 ( ) 19 )( 5 (
4
= = y
211 ) 19 )( 6 ( ) 65 )( 5 (
5
= = y
Por otro lado, la ecuacin caracterstica es en este caso 0 6 5
2
= + r r , cuyas races
son 2
1
= r , 3
2
= r . La solucin general es:
n n
n
c c y 3 2
2 1
+ = y dadas las condiciones
iniciales:
0 = n 0
2 1
= + c c
1 = n 1 3 2
2 1
= + c c
se obtienen: 1
1
= c y 1
2
= c , es decir
n n
n
y 2 3 = .
Por ejemplo, 65 16 81 ) 2 ( ) 3 (
4 4
4
= = = y .
En cambio, 0 4 3
2 3
= +
+ + n n n
y y y tiene la ecuacin caracterstica 0 4 3
2 3
= + r r
cuyas races son 1
1
= r , 2
3 2
= = r r , y su solucin general es entonces:
n n
n
n c c c y ) 2 )( ( ) 1 (
3 2 1
+ + = .
La frmula de recursin para los polinomios de Tchebicheff:
0 ) ( ) ( 2 ) (
1 1
= +
+
x T x xT x T
n n n

es tambin una ecuacin de diferencias lineal, homognea, de orden 2, con coeficientes
constantes (porque 1, -2x, 1 no son funcin de n). Su ecuacin caracterstica es:
0 1 2
2
= + r x r , con races
2
1 x i x r = . Haciendo el cambio de variable = cos x
se tiene:

= =
i
e i r sen cos . La solucin general de la ecuacin de diferencias es
( ) ( )
+
+ = + =
in in
n
i
n
i
n
e c e c e c e c T
2 1 2 1
. Con las condiciones iniciales 1 ) (
0
= x T ,
= = cos ) (
1
x x T se obtienen
2
1
2 1
= = c c y finalmente = + =

n e e x T
in in
n
cos ) (
2
1
2
1
,
donde x cos arc = .

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 15
La solucin de una ecuacin de diferencias lineal no homognea puede obtenerse
sumando a la solucin de la correspondiente ecuacin homognea una solucin
particular. Los ejemplos siguientes son ilustrativos:
Considrese:
n
n n
a y y =
+
2
1
, con la condicin inicial 1
0
= y . La correspondiente
ecuacin homognea, 0 2
1
=
+ n n
y y , tiene la ecuacin caracterstica 0 2 = r y su
solucin es entonces
n
n
c y ) 2 ( = . Para la solucin particular puede tantearse una
solucin de la forma
n
n
a y = , de donde
n n n
a a a =
+
2
1
y por lo tanto ( )
1
2

= a
(esto es, suponiendo que 2 a ). La solucin general es: ( )
n n
n
c a a y ) 2 ( 2 + = . Con
la condicin inicial se halla ( )
1
2 1

= a c y finalmente ( ) ( ) 2 2 2 + = a a y
n n n
n

(para 2 a ). Para 2 = a la regla de L' Hospital da:
1
2 2

+ =
n n
n
n y .
Para la ecuacin de diferencias
n
n n n
n y y y ) 1 ( 3 2 6 5
1 2
+ = +
+ +
puede considerarse la
solucin particular:
n
c b an y ) 1 ( + + = . Sustituyendo esta expresin en la ecuacin e
identificando coeficientes se obtienen: 1 = a ,
2
3
= b ,
4
1
= c . Por otro lado, la ecuacin
caracterstica es: 0 6 5
2
= + r r con races 2
1
= r , 3
2
= r . La solucin general resulta
entonces
n n n
n
c c n y ) 3 ( ) 2 ( ) 1 (
2 1 4
1
2
3
+ + + + = .
5.5. Integracin Numrica (Cuadratura)
La evaluacin de una integral definida:

b
a
dx x f ) (
en forma explcita es a veces muy difcil o prcticamente imposible. En tales casos
puede hacerse una aproximacin numrica tal como las que se mencionan en esta
seccin.
5.5.1 Regla de los Trapecios, Regla de Simpson y otras frmulas interpolatorias.
Una posible forma de resolver el problema es aproximando, localmente, la funcin, ( ) x f ,
por otra, ( ) x g , ms simple de integrar.
En la Regla de los Trapecios se aproxima ( ) x f con segmentos de recta y entonces:
( ) [ ]

+
1
0
) ( ) ( ) (
1 0 0 1 2
1
x
x
x f x f x x dx x f
Esta expresin puede generalizarse para un intervalo [ ]
n
x x ,
0
. Considerando abscisas
con espaciamiento uniforme h x x
i i
+ =
1
, para los que se tiene valores de la funcin
) (
i i
x f f = puede hacerse interpolaciones lineales en cada subintervalo [ ]
1
,
+ i i
x x para
obtener:
( ) ( )

+ + + + + =

n
x
x
n n
f f f f f
h
h T dx x f
0
1 2 1 0
2 2 2
2
) ( K
El error de truncacin puede estimarse ms fcilmente considerando primero el sub-
intervalo [ ] 2 , 2 h h + para el cual (siendo h pequeo):
K + + + + + = ) 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0 ( ) (
4
24
1
3
6
1
2
2
1
IV
f x f x f x f x f x f
e integrando:

+ + + =
2
2
) 0 (
1920
) 0 (
24
) 0 ( ) (
5 3 h
h
IV
f
h
f
h
f h dx x f L

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 16
Por otro lado:
( ) L + + = ) 0 (
384
) 0 (
48
) 0 (
8
) 0 (
2
2
4 3 2
0
IV
f
h
f
h
f
h
f
h
f h f

\
|
+ |

\
|
=
2
2
) 0 (
480
) 0 (
12 2 2 2
) (
5 3 h
h
IV
f
h
f
h h
f
h
f
h
dx x f K

Si h es pequeo el error local de truncacin es de ( )
3
h O . Sin embargo, para integrar
entre lmites a y b se requieren ( ) h a b subintervalos (este nmero es inversamente
proporcional a h ) y el error global es entonces de ( )
2
h O .
En la Regla de Simpson la aproximacin local se hace interpolando con parbolas de 2
grado. Considerando puntos con abscisas uniformemente espaciadas:
( )

+ + + =
2
0
) (
90
4
3
) (
1
5
2 1 0
x
x
IV
x f
h
f f f
h
dx x f K
y en general, considerando un nmero par de subintervalos:
( ) ( )

+ + + + + + + + + =

n
x
x
n n n
h O f f f f f f f f
h
dx x f
0
4
1 2 4 3 2 1 0
4 2 2 4 2 4
3
) ( K
Esta frmula es exacta cuando ) (x f es un polinomio de hasta tercer grado.
Considrese por ejemplo: 912 437 609 . 1 5 Ln
5
1
= =

x
dx
Para la funcin
x
x f
1
) ( = se
obtienen los valores siguientes:
x ) (x f x ) (x f
1.00 1.
3.25 0.3076 9231
1.25 0.8 3.50 0.2857 1429
1.50 0.6666 6667 3.75 0.2666 6667
1.75 0.5714 2857 4.00 0.25
2.00 0.5 4.25 0.2352 9412
2.25 0.4444 4444 4.50 0.2222 2222
2.50 0.4 4.75 0.2105 2632
2.75 0.3636 3636 5.00 0.2
3.00 0.3333 3333
y utilizando la regla trapezoidal se obtienen aproximaciones a

5
1 x
dx
.
Por ejemplo con 1 = h :
( ) ( ) [ ] K K 833 6 . 1 2 . 0 25 . 0 333 . 0 5 . 0 2 . 1 1
2
1
5
1
= + + + +

x
dx

y en forma similar
h ( ) h T
1.0 1.683 333
0.5 1.628 968
0.25 1.614 406
....
Con la regla de Simpson se obtienen:

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 17
h ( ) h S
0.5 1.610846
0.25 1.609552
0.125 1.609446
Las frmulas de los trapecios y de Simpson corresponden al grupo de frmulas de
Newton - Cotes de intervalo cerrado. Algunas otras frmulas de este grupo son la regla
de Simpson de los
8
3
:
( ) ( )
7
3 2 1 0
3 3
8
3
) (
3
0
h O f f f f
h
dx x f
x
x
+ + + + =


y la regla de Bode:
( ) ( )
9
4 3 2 1 0
7 32 12 32 7
45
2
) (
4
0
h O f f f f f
h
dx x f
x
x
+ + + + + =


Tambin pueden obtenerse frmulas que utilizan puntos uniformemente espaciados pero
no incluyen los valores de la funcin en uno o en los dos lmites de la integral. Estas son
las frmulas de Newton - Cotes de intervalo abierto. Por ejemplo:
( ) ( )
3
2 1
2
3
) (
3
0
h O f f
h
dx x f
x
x
+ + =


( ) ( )
5
3 2 1
2 2
3
4
) (
4
0
h O f f f
h
dx x f
x
x
+ + =


5.5.2. Extrapolacin de Richardson y el Mtodo de Romberg
Si ( ) h T es la aproximacin de

b
a
dx x f ) ( obtenida de la aplicacin de la regla de los
trapecios con intervalo h , puede escribirse:

+ + + + =
b
a
h a h a h a dx x f h T K
6
3
4
2
2
1
) ( ) (

( ) ( ) ( )

+ + + + =
b
a
h a h a h a dx x f h T K
6
3
4
2
2
1
2 2 2 ) ( ) 2 (

y entonces:

+ + + =

b
a
h a h a dx x f
h T h T
K
6
3
4
2
) (
3
) 2 ( ) ( 4

es decir ( ) ) 2 ( ) ( 4
3
1
h T h T es una aproximacin a

b
a
dx x f ) ( con un error de truncacin de
( )
4
h O , menor que el de ( ) h T o ( ) h T 2 . En forma similar, para la regla de Simpson:

+ + + + =
b
a
h a h a h a dx x f h S K
8
4
6
3
4
2
) ( ) (

+ + + + =
b
a
h a h a h a dx x f h S K
8
4
6
3
4
2
) 2 ( ) 2 ( ) 2 ( ) ( ) 2 (
y entonces:
( )
( )

+ + + =

b
a
h a h a dx x f
h S h S
K
8
4
6
3
4
4
) (
1 2
) 2 ( ) ( 2


H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 18
es una aproximacin mejor a la integral, con un error global de ( )
6
h O . Estos son dos
ejemplos de la extrapolacin de Richardson.
Para la integral

5
1 x
dx
considerada anteriormente:
( ) 333 683 . 1 0 , 1 = T
( ) 968 628 . 1 5 , 0 = T ( ) ( ) ( ) ( ) 5 . 0 846 610 . 1 0 . 1 5 . 0 4
3
1
S T T = =
( ) 406 614 . 1 25 , 0 = T ( ) ( ) ( ) ( ) 25 . 0 552 609 . 1 5 . 0 25 . 4
3
1
S T T = =
Obsrvese que estos resultados coinciden con los obtenidos de la regla de Simpson.
El mtodo de Romberg considera inicialmente los resultados
j
T
. 1
, de aplicar la regla de
los trapecios con distintos grados de subdivisin, ( )
j
j
a b h 2 = . Estas aproximaciones
tienen errores de truncacin de ( )
2
j
h O . No es necesario rehacer todos los clculos para
cada nueva subdivisin, pudindose emplear la expresin:
( )

=
=

+ + =
1 2
2
1
1 , 1 2
1
, 1
j
i
i
j j j j
i h a f h T T
Usando la extrapolacin de Richardson se obtienen nuevas aproximaciones con errores
de ( )
2 2 + i
j
h O :
( )
( ) 1 2
2
2
, 1 ,
2
, 1

=
+
+
i
j i j i
i
j i
T T
T
Considrese nuevamente la integral:

5
1 x
dx
. Con la regla de los trapecios se obtienen:
j
j
j
h
2
4
=
( )

=
=
+
1 2
1
2
j
i
i
j
h i a f
j
T
, 1

0 4. 2.4
1 2. 0.333 333 1.866 667
2 1. 0.75 1.683 333
3 0.5 1.574 603 1.628 968
4 0.25 3.199 689 1.614 406
5 0.125 6.427 862 1.610 686
Y de las sucesivas extrapolaciones:
j
j
T
, 2

j
T
, 3

j
T
, 4

j
T
, 5

j
T
, 6

0
1 1.688 889
2 1.622 222 1.617 777
3 1.610 847 1.610 088 1.609 966
4 1.609 552 1.609 466 1.609 456 1.609 454
5 1.609 446 1.609 439 1.609 438 1.609 438 1.609 438
Las cifras subrayadas coinciden con las de la solucin exacta.

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 19
5.5.3. Integracin con puntos no equidistantes
Las frmulas de integracin con puntos equidistantes consideradas en la seccin 5.5.1:
( ) ( ) ( ) ( ) ( )
m m
b
a
x f c x f c x f c x f c dx x f + + + +

L
3 3 2 2 1 1

con m puntos de integracin y m parmetros
m
c c c L
2 1
, permiten integrar exactamente
polinomios de grado 1 m (y excepcionalmente de grado m , como en la regla de
Simpson). Si en cambio se toman puntos no equidistantes, para m puntos de
integracin se tienen m 2 parmetros:
m
w w w L
2 1
, y
m
x x x L
2 1
, lo que permite integrar
exactamente polinomios hasta de grado 1 2 m . Esta forma de integracin numrica se
denomina de Gauss.
Con propsitos ilustrativos, considrese la frmula de integracin de Gauss con 3
puntos:
( ) ( ) ( ) ( )
3 3 2 2 1 1
x f w x f w x f w dx x f
b
a
+ +


Esta expresin ser exacta si ) (x f es un polinomio de grado igual o menor que 5 (es
decir, 2(3)-1) Cules deben ser las abscisas
3 2 1
, , x x x ? Esto se considera brevemente
en lo que sigue. El polinomio ( ) ( )( )( )
3 2 1
x x x x x x x g = , cuyas races son
precisamente las abscisas de integracin, es de tercer grado. En consecuencia la
integracin:
0 ) ( ) ( ) ( ) (
3 3 2 2 1 1
= + + =

x g w x g w x g w dx x g
b
a

es exacta. Lo mismo puede decirse de las integrales de los polinomios ) (x g x y ) (
2
x g x
(que son de grado 4 y 5, respectivamente):
0 ) ( ) ( ) ( ) (
3 3 3 2 2 2 1 1 1
= + + =

x g x w x g x w x g x w x d x g x
b
a

0 ) ( ) ( ) ( ) (
3
2
3 3 2
2
2 2 1
2
1 1
2
= + + =

x g x w x g x w x g x w x d x g x
b
a

Es decir,
3 2 1
, , x x x son los 3 ceros del polinomio ( ) x g que satisface las condiciones de
ortogonalidad:

=
=
=
b
a
b
a
b
a
dx x g x
dx x g x
dx x g
0 ) (
0 ) (
0 ) (
2

Con el cambio de variable ( ) ( ) a b z a b x + + =
2
1
2
1
se tiene que:
( ) ( ) ( ) ( ) ( )
3 3 2 2 1 1
1
1
z F w z F w z F w dz z F dx x f
b
a
+ + = =

+


y en tal caso las abscisas
i
z son los ceros del polinomio que satisface las condiciones:

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 20

=
=
=
1
1
3
2
1
1
3
1
1
3
0 ) (
0 ) (
0 ) (
dz z P z
dz z P z
dz z P

) (
3
z P es el polinomio de Legendre de grado 3. En general, cuando se consideran m
puntos de integracin las
i
z son los ceros del polinomio de Legendre de grado m ,
) (z P
m
. En la tabla siguiente se indican algunos de estos polinomios y sus ceros:
m
) (z P
m

i
z
1 z 0.
2
( ) 1 3
2
2
1
z
K 57735 . 0
3
( ) z z 3 5
3
2
1

0., K 77459 . 0
4
( ) 3 30 35
2 4
8
1
+ z z
K 33998 . 0 , K 86113 . 0
5
( ) z z z 15 70 63
3 5
8
1
+
0., K 53846 . 0 , K 90617 . 0
para estos polinomios: 0 ) ( ) ( ) 1 2 ( ) ( ) 1 (
1 1
= + + +
+
z P n z zP n z P n
n n n
.
Para determinar los "pesos" correspondientes
m
w w w L
2 1
, puede considerarse que:
0 ) ( ) ( ) ( ) (
2 2 1 1
1
1
= + + + =

m m
z F w z F w z F w dz z F K
debe ser exacta para 1 ) ( = z F , z z F = ) ( ,...
1
) (

=
m
z z F . En general:
) ( ) 1 (
2
2
i m i
i
z P z
w

= .
Las races,
i
z , de ) (z P
m
y los correspondientes pesos,
i
w , pueden hallarse en tablas de
Abramovitz y Segn
1
u otras similares. Por ejemplo, para m=5:
i
z
i
w
0. 0.56888 88888 88889
K 05683 93101 53846 . 0 0.47862 86704 99366
K 38664 98459 90617 . 0 0.23692 68850 56189
Siendo conocidas estas abscisas y pesos:
[ ]

+ + + =
b
a
m m
x f w x f w x f w a b dx x f
) 2 2 1 1 2
1
( ) ( ) ( ) ( ) ( K
donde:
) ( ) (
2
1
2
1
a b z a b x
i i
+ + =
Estas son las frmulas de integracin de Gauss - Legendre.
Considrese por ejemplo 4718 6931 . 0 2 Ln
2
1
= =

x
dx
. En este caso 2 , 1 = = b a ,
2 / ) 3 ( + =
i i
z x y se tiene:

1
Vase: "Handbook of Mathematical Functions".- M. Abramowitz e I.A. Segun, editores. Dover Publications
Inc., N.Y. 1965

H. Scaletti - Mtodos Numricos: Interpolacin, Diferenciacin e Integracin 5 - 21
i
i
z
i
x ( )
i
x f
i
w
1 0. 1.5 0.666667 0.568889
2 -0.538469 1.230766 0.812502 0.478629
3 0.538469 1.769235 0.565216 0.478629
4 -0.906180 1.046910 0.955192 0.236927
5 0.906180 1.953090 0.512009 0.236927
y finalmente


=
=
2
1
5
1
2
1 1
4 693147 . 0 ) ( ) 1 2 (
i
i i x
x f w dx .
Algunas de las mltiples variantes de integracin Gaussiana se mencionan a
continuacin (las correspondientes abscisas,
i
x , y pesos,
i
w , tambin pueden hallarse
en tablas):
Frmula de Radau:
( )

=
+ |

\
|

1
1
1
1
2
) 1 (
2
) (
n
i
i i
x f w f
n
dx x f
Las abscisas son los ceros de
( )
( ) x
x P x P
n n
+
+

1
) ( ) (
1
y los pesos:
2
1
)) ( (
) 1 (
i n
i
i
x nP
x
w

=
Frmula de Lobatto:
( )
( ) ( ) [ ] ( )

=
+ +

1
1
1
1
1 1
1
2
) (
n
i
i i
x f w f f
n n
dx x f
La abscisa
i
x es el ( )
0
1 i cero de ) (
1
x P
n
y los pesos ( ) [ ] ( ) [ ]
2
1
1
1 2

=
i n i
x P n n w .
Integracin de Gauss - Laguerre:

n
i
i i
x
x f w dx x f e
1
0
) ( ) (
Las abscisas son los ceros de los polinomios de Laguerre, ) (x L
n

Los pesos resultan: ( ) ( ) ( ) [ ]
2
1
2
1 !

+
+ =
i n i i
x L n x n w .
Integracin de Gauss - Tchebicheff:
( )

1
1
1
2
1
) (
n
i
i
x f
n
dx
x
x f

En este caso se tienen abscisas ( )
n
i x
i

2
1
cos = .
5.5.4. Generalizacin a dos o ms dimensiones.
Hasta el momento solo se ha considerado la integracin en una dimensin. El proceso
para evaluar numricamente integrales mltiples es anlogo al proceso analtico, es
decir, se integra en una variable a la vez y en cada una de estas etapas las otras
variables se consideran como constantes. Por ejemplo:




= = =

n
i
n
i
m
j
j i j i i i
y x f w w dy y x f w dy dx y x f
1 1 1
) , ( ) , ( ) , (

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 1
6. Mtodos de Diferencias Finitas para la
Solucin de Ecuaciones Diferenciales Ordinarias
6.1. Introduccin
En muchos problemas de ciencia e ingeniera se plantean ecuaciones diferenciales
ordinarias (EDO). Por ejemplo, ( ) y x f y , = con la condicin inicial ( ) c a y = . No
siempre es factible hallar una solucin analtica de tales ecuaciones. En este captulo se
revisan procedimientos numricos de solucin de EDO basados en la aproximacin de
los operadores de derivacin por diferencias finitas. Tales procedimientos son tambin
aplicables cuando se tienen sistemas de ecuaciones diferenciales de primer orden, como
por ejemplo:
( ) y f y , t =
& (6.1a)
con condiciones iniciales:
( ) c y =
0
t (6.1b)
e incluso ecuaciones de orden superior: ( ) y y y x f y = , , , , que con algunos cambios
de variables pueden siempre convertirse en un sistema de ecuaciones diferenciales de
primer orden. As:
3
2 2
y z x z
z y x y
+ + =
=
con condiciones iniciales
( )
( ) 1 0
0 0
=
=
z
y
y
( )
( ) 0 0
1 0
=
=
z
y

es equivalente a:
v z
u y
y v x v
z u x u
=
=
+ + =
=
3
2 2
con condiciones iniciales
( )
( )
( )
( ) 0 0
1 0
1 0
0 0
=
=
=
=
v
u
z
y

Aunque la primera parte de este captulo se refiere directamente al caso de las
ecuaciones diferenciales ordinarias de primer orden, la seccin 6.3 trata de
procedimientos especficos para el importante caso de sistemas de ecuaciones
diferenciales de segundo orden. La seccin 6.5 se refiere a problemas de valor frontera,
un tema que con otros mtodos se trata tambin en captulos siguientes.
6.2. Ecuaciones Diferenciales de Primer Orden
6.2.1 Mtodo de Euler
Este es el mtodo ms simple para resolver EDO de primer orden ) , ( y x f y = con
c a y = ) ( . El intervalo entre a y b se divide en subintervalos habitualmente iguales, de
longitud h , de modo que h n a x
n
+ = . Haciendo c y =
0
se determinan sucesivamente
L
4 3 2 1
y y y y que son aproximaciones a los valores exactos
L ) ( ) ( ) ( ) (
4 3 2 1
x y x y x y x y Para ello ) (
i
x y se aproxima por ( ) h y y h y
i i i
=
+1
, de
donde resulta la frmula de recursin:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 2
( )
i i i i
y x f h y y ,
1
+ =
+
(6.2)
Este mtodo es aplicable en situaciones en las que f podra ser una funcin bastante
complicada, o podra ser el resultado de operaciones y decisiones no expresables por
una simple frmula, pero se presenta aqu un caso muy simple, con propsitos
didcticos.
Supngase que: y y = con condicin inicial 1 ) 0 ( = y . La solucin exacta es en este
caso conocida:
x
e y = . Empleando el mtodo de Euler: ( )
i i i i
y h y h y y + = + =
+
1
1
.
Con dos distintos intervalos 2 . 0 = h y 1 . 0 = h se obtienen:
Solucin exacta Solucin con 2 . 0 = h Solucin con 1 . 0 = h
i
i
x
( )
i
x
i
e x y = i
y
i
f h
Error
i
y
i
f h
Error
0 0 1.000 1.000 0.200 0 1.000 0.100 0
1 0.1 1.105 1.100 0.110 -0.005
2 0.2 1.221 1.200 0.240 -0.021 1.210 0.121 -0.011
3 0.3 1.350 1.331 0.133 -0.019
4 0.4 1.492 1.440 0.244 -0.052 1.464 0.146 -0.023
5 0.5 1.649 1.610 0.161 -0.039
6 0.6 1.822 1.728 -0.094 1.771 -0.051
Se observa que el error es aproximadamente proporcional a h y que en este caso crece
con x .
El error de truncacin local, es decir el error introducido en cada paso, es de ( )
2
h O . Sin
embargo, como el nmero de pasos que se realizan para integrar la EDO en un intervalo
dado es inversamente proporcional a h , el error global o total es de ( ) h O . Tambin
aqu podra emplearse la extrapolacin de Richardson:
[ ] ( )
2
) 2 , ( ) , ( 2 ) ( h O h x y h x y x y +
Esta expresin sera correcta para una extrapolacin pasiva, es decir la que se hace
para mejorar algunos resultados y tpicamente no en cada paso. En cambio, una
extrapolacin activa, sera aquella que se realiza en cada paso, utilizndose los valores
as mejorados en los sucesivos pasos del proceso. En ciertos casos la extrapolacin
pasiva puede ser ms conveniente, por ser numricamente ms estable. Para el
ejemplo anterior, con extrapolacin pasiva se obtiene:
i
x
( )
i
x
i
e x y =
) 2 . 0 , (x y ) 1 . 0 , (x y ) 2 . 0 , ( ) 1 . 0 , ( 2 x y x y Error
0.2 1.221 1.200 1.210 1.220 -0.001
0.4 1.492 1.440 1.464 1.488 -0.004
0.6 1.822 1.728 1.771 1.814 -0.008
La solucin de la ecuacin ) , ( y x f y = depende de la condicin inicial c a y = ) ( . Se
tiene as como solucin una familia de curvas o trayectorias ) , ( c x y , que en el intervalo
de inters pueden ser convergentes o divergentes. Esta es una caracterstica de la
ecuacin diferencial, no del procedimiento numrico empleado en su solucin. Los

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 3
errores de redondeo o de truncacin producen un cambio de trayectoria (y pueden
entonces verse como equivalentes a resolver un problema con condiciones iniciales algo
distintas). Las figuras bosquejan soluciones numricas obtenidas para el caso en que
las trayectorias divergen, en el que los errores tienden a acumularse; lo contrario ocurre
cuando las trayectorias son convergentes.
Para
n
x x = el error acumulado en la solucin numrica est dado por: ) (
n n n
x y y =
)) ( ) ( ( ) (
1 1 1 n n n n n n
x y x y y y =
+ + +

Para el mtodo de Euler: ) , (
1 n n n n
y x f h y y =
+

Por otro lado, de la expansin en series de Taylor:
L + + + =
+
) ( ) ( ) ( ) (
2
2
1
1 n n n n
x y h x y h x y x y
Se tiene que:
( )
2
1
)) ( , ( ) ( ) ( h O x y x f h x y x y
n n n n
+ =
+

Remplazando en la primera expresin:
[ ] ( )
2
1
)) ( , ( ) , ( h O x y x f y x f h
n n n n n n
+ =
+

Pero: L +

+ =
=
=
) (
)) ( ( )) ( , ( ) , (
n
x y y
n
x x
n n n n n n
y
f
x y y x y x f y x f
Y por el teorema del valor medio:
=
=
=
=

=
y
x x
n
y
x x
n n n n n n
n n
y
f
y
f
x y y x y x f y x f )) ( ( )) ( , ( ) , (
De donde:
|
|
|

\
|

+
=
=
+
y
n
x x
n n
y
f
h 1
1

Si h es suficientemente pequeo y
=
=

y
n
x x y
f
es negativa el mtodo de Euler es adecuado.
Si en cambio si 0 > y f el error crece y el proceso slo podra funcionar si el intervalo
fuera suficientemente pequeo. Tal es el caso del ejemplo precedente, pero no el del
ejemplo siguiente. Considrese la ecuacin x y x y 2 ) ( 1000
2
+ = con 0 ) 0 ( = y . Es
fcil verificar que la solucin exacta es
2
x y = , pero con el mtodo de Euler se obtienen:
k
k
x ) (
k
x y
k
y
k

0 0 0 0 0
1 0.01 0.0001 0 -0.0001
2 0.02 0.0004 0.0012 0.0008
3 0.03 0.0009 -0.0064 -0.0073
4 0.04 0.0016 0.0672 0.0656
5 0.05 0.0025 -0.5880 -0.5905

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 4
Los resultados muestran oscilaciones tpicas de una inestabilidad numrica. Reduciendo
h no se elimina la inestabilidad; se requiere ms bien cambiar de mtodo.
Algunas alternativas, no siempre mejores, se presentan en las secciones siguientes.
6.2.2 Mtodos de Runge Kutta
Estos mtodos son, como el mtodo de Euler, de paso simple. Es decir, slo se requiere
conocer
n
y para determinar
1 + n
y . Las frmulas de Runge Kutta requieren evaluar
) , ( y x f en diversos puntos apropiadamente ubicados en el intervalo [ ] h x x x
n n n
+ =
+1
, ,
ponderndose los resultados de modo de obtener un error de truncacin del mayor orden
posible.
Considrese el caso en que ) , ( y x f se calcula en dos puntos en el intervalo [ ]
1
,
+ n n
x x :
)

, ( ) , (
) , (

1
y h x f h y x f h y y
y x f h y y
n n n n n
n n n
+ + + =
+ =
+

Siendo
( )
2
)

( ) , ( )

, ( h O
y
f
y y
x
f
h y x f y h x f
n
y y
n
x x
n
n
y y
n
x x
n n n
+

+ = +
=
=
=
=

Pero ) , (

n n n
y x f h y y = , por lo que se obtiene:
( )
3 2
1
) , ( ) , ( ) ( h O
y
f
y x f
x
f
h y x f h y y
n
y y
n
x x
n n
n
y y
n
x x
n n n n
+
(
(

+ + + =
=
=
=
=
+

Por otro lado, expandiendo ) ( h x y
n
+ en series de Taylor:
( )
3 2
2
1
) ( ) ( ) ( ) ( h O x y h x y h x y h x y
n n n n
+ + + = +
Pero:
1
) (
+
+
n n
y h x y
n
y y
n
x x
n n
n
y y
n
x x
n
n n n n n
n n
y
f
y x f
x
f
x y
y
f
x
y
x
f
x
y
y
y x f x y x f x y
y x y
=
=
=
=

) , ( ) (
) , ( )) ( , ( ) (
) (

Sustituyendo estas expresiones e identificando coeficientes se obtienen:
2
1
1
=
= +

Con un error de truncacin local de ( )
3
h O y global de ( )
2
h O .
De las infinitas alternativas de seleccin para tres son las ms comunes:
La frmula del punto medio:
)

, (
) , (
2

2
1
1
y h x f h y y
y x f
h
y y
n n n
n n n
+ + =
+ =
+

El mtodo de Heun, tambin conocido como Euler modificado:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 5
[ ] )

, ( ) , (
2
) , (

1
y h x f y x f
h
y y
y x f h y y
n n n n n
n n n
+ + + =
+ =
+

Puede anotarse que si f no fuera funcin de y este mtodo equivale a evaluar la
integral:

+
+
+ =
1
1
) (
n
x
n
x
n n
dx x y y y
por el mtodo de los trapecios.
El mtodo de Ralston:
( )
( )
( )
2 3
2
1 3
1
1
1 4
3
4
3
2
1
,
,
k k h y y
h k y h x f k
y x f k
n n
n n
n n
+ + =
+ + =
=
+

Anlogamente, pueden obtenerse frmulas con un error de truncacin local de ( )
4
h O y
global de ( )
3
h O :
( )
( )
( )
( )
3 2 1 6
1
1
2 1 3
1 2
1
2
1
2
1
4
2 ,
,
,
k k k h y y
h k h k y h x f k
h k y h x f k
y x f k
n n
n n
n n
n n
+ + + =
+ + =
+ + =
=
+

o bien:
( )
( )
( )
( )
3 1 4
1
1
2 3
2
3
2
3
1 3
1
3
1
2
1
3
,
,
,
k k h y y
h k y h x f k
h k y h x f k
y x f k
n n
n n
n n
n n
+ + =
+ + =
+ + =
=
+

Si f fuera independiente de y las expresiones precedentes equivalen al mtodo de
Simpson.
El mtodo comnmente denominado de Runge Kutta es un proceso con error global de
( )
4
h O :
( )
( )
( )
( )
( )
4 3 2 1 6
1
1
3 4
2 2
1
2
1
3
1 2
1
2
1
2
1
2 2
,
,
,
,
k k k k h y y
h k y h x f k
h k y h x f k
h k y h x f k
y x f k
n n
n n
n n
n n
n n
+ + + + =
+ + =
+ + =
+ + =
=
+

Que tambin coincide con la regla de Simpson en el caso en que f no es funcin de y :
[ ] ) ( ) ( 4 ) (
6
) (
2
1
1
1
h x f h x f x f
h
dx x y y y
n n n
n
x
n
x
n n
+ + + + =

+
+

Como ejemplo de aplicacin de este mtodo, considrese la ecuacin diferencial:
2
1
) ( y x y + =

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 6
con condicin inicial 41 . 0 ) 4 . 0 ( = y . Trabajando con 4 . 0 = h , las operaciones en un paso
seran:
( )
( )
( )
( )
( ) 934 848 . 0 934 438 . 0 41 . 0 2 2
285805 . 1 )) 292 443 . 0 41 . 0 ( ) 4 . 0 4 . 0 (( ,
10823 . 1 )) 174 218 . 0 41 . 0 ( ) 2 . 0 4 . 0 (( ,
09087 . 1 )) 18 . 0 41 . 0 ( ) 2 . 0 4 . 0 (( ,
9 . 0 ) 41 . 0 4 . 0 ( ) ( ,
4 3 2 1 6
1
1
3 4
2 2
1
2
1
3
1 2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
= + = + + + + =
= + + + = + + =
= + + + = + + =
= + + + = + + =
= + = + = =
+
k k k k h y y
h k y h x f k
h k y h x f k
h k y h x f k
y x y x f k
n n
n n
n n
n n
n n n n

Otro mtodo de Runge Kutta de cuarto orden (global) es el mtodo de Gill:
( )
( )
( )
( )
( )
4 3 2 1 6
1
1
3 2
1
2 2
1
4
2 2
1
1 2
1
2
1
3
1 2
1
2
1
2
1
) 2 2 ( ) 2 2 (
) 2 2 ( 2 ,
) 2 2 ( ) 1 2 ( ,
,
,
k k k k h y y
h k h k y h x f k
h k h k y h x f k
h k y h x f k
y x f k
n n
n n
n n
n n
n n
+ + + + + =
+ + + =
+ + + =
+ + =
=
+

Y muchas otras alternativas son posibles.
6.2.3 Estimacin del Error y Control del Paso
Al utilizar los procedimientos de paso simple descritos en las secciones precedentes, el
intervalo h puede ajustarse en forma automtica. Esto puede ser necesario al integrar
ecuaciones cuya solucin vara lentamente en algunas regiones y muy rpidamente en
otras. Lo primero es poder estimar el error al integrar las ecuaciones con un cierto
intervalo.
Supngase que se resuelve una ecuacin diferencial con un procedimiento de Runge
Kutta de cuarto orden (global) empleando un intervalo h 2 . La solucin, que en lo que
sigue se denomina
h
y
2
, tendra un error de orden
4
) 2 ( h . Si paralelamente se obtuviera
la solucin con intervalo h , en lo que sigue
h
y , sta tendra un error de orden
4
) (h .
Podra entonces eliminarse el trmino dominante del error haciendo una extrapolacin
(pasiva). Para cada abscisa:
15 15
16
2 2 h h
h
h h
corregido
y y
y
y y
y

+ =

=
Los resultados as obtenidos tendran un error de orden
5
) (h . Ntese que si se hiciera
una extrapolacin activa habra que considerar el orden del error local.
Una alternativa ms conveniente sera aprovechar los resultados parciales al usar un
proceso de orden m para determinar otra con un proceso de orden 1 + m . Por ejemplo,
en el procedimiento de Runge - Kutta Cash Karp se emplean las frmulas de cuarto
orden (global):
) (
6 1771
512
4 594
125
3 621
250
1 378
37
1
k k k k h y y
n n
+ + + + =
+

Y de quinto orden (global):
) (
6 4
1
5 336 14
277
4 296 55
525 13
3 384 48
575 18
1 648 27
825 2
1
k k k k k h y y
n n
+ + + + + =
+


H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 7
Que solamente requieren seis evaluaciones de la funcin:
( )
( )
( )
( )
( )
( ) h k h k h k h k h k y h x f k
h k h k h k h k y h x f k
h k h k h k y h x f k
h k h k y h x f k
h k y h x f k
y x f k
n n
n n
n n
n n
n n
n n
5 4096
253
4 110592
44275
3 13824
575
2 512
175
1 55296
1631
8
7
6
4 27
35
3 27
70
2 2
5
1 54
11
5
3 5
6
2 10
9
1 10
3
5
3
4
2 40
9
1 40
3
10
3
3
1 5
1
5
1
2
1
,
,
,
,
,
,
+ + + + + + =
+ + + =
+ + + =
+ + + =
+ + =
=

6.2.4 Mtodos de Paso Mltiple
Los mtodos tratados anteriormente permiten determinar
1 + n
y conociendo nicamente el
valor de la funcin en el punto inmediatamente precedente. Como alternativa a estos
mtodos de paso simple pueden plantearse mtodos de paso mltiple en los que el
clculo de
1 + n
y requiere utilizar L
2 1 n n n
y y y .
Un mtodo de este tipo resulta al aproximar y en la ecuacin ) , ( y x f y = por una
diferencia central, con lo que se tiene:
) , ( 2
1 1 n n n n
y x f h y y + =
+

Este es el mtodo explcito del punto medio (en ingls conocido como leapfrog), un
mtodo de doble paso, puesto que la expresin para obtener
1 + n
y requiere
1 n
y e
n
y .
Algunas ventajas y desventajas de los mtodos de pasos mltiples con relacin a los
mtodos de un solo paso pueden citarse:
Para el mismo nmero de evaluaciones de la funcin ) , ( y x f se tiene un mayor
orden en el error de truncacin. As por ejemplo, el mtodo explcito del punto medio
tiene un error local de ( )
3
h O , contra ( )
2
h O en el mtodo de Euler, an cuando
ambos requieren una sola nueva evaluacin de la funcin ) , ( y x f en cada paso.
Se presentan dificultades para arrancar el proceso, no siendo suficiente conocer
0
y
sino adems uno o ms valores adicionales L
2 1
y y . Estos valores deben
obtenerse con un procedimiento distinto, de orden igual o mayor que el mtodo de
paso mltiple a emplearse.
Es en general difcil (aunque no imposible) cambiar el intervalo de integracin, h (lo
cual, en cambio, no es ningn problema en los mtodos de paso simple). Esto
podra reducir la relativa eficiencia de los mtodos de pasos mltiples.
La inestabilidad numrica es un problema ms frecuente en los mtodos de paso
mltiple que en los mtodos de paso simple. ste y otros temas relacionados se
revisan en la seccin 6.2.5.
Entre los mtodos de paso mltiple que se encuentran en la literatura estn los mtodos
explcitos de Adams Bashfort:
) (
1 2 3 1 2 1 1 k n k n n n n n
f f f f h y y
+ +
+ + + + + = L
Y los correspondientes mtodos implcitos de Adams Moulton:
) (
1 2 3 1 2 1 1 0 1 + + +
+ + + + + + =
k n k n n n n n n
f f f f f h y y L

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 8
En estas expresiones
n
f denota ) , (
n n
y x f . Los coeficientes pueden obtenerse
considerando que:
dx x y x f dx
x
y
x y x y
h
n
x
n
x
h
n
x
n
x
n n

+ +
+
=

= )) ( , ( ) ( ) (
1

Y aproximando ) , ( y x f por un polinomio de interpolacin escrito en trminos de
diferencias finitas hacia atrs:
) (
3
8
3 2
12
5
2
1
1
L + + + + =
+ n n n n n n
f f f f h y y (A-B)
) (
1
3
24
1
1
2
12
1
1 2
1
1 1
L + =
+ + + + + n n n n n n
f f f f h y y (A-M)
Por otro lado, pueden escribirse expansiones en series de Taylor, obtenindose las
por identificacin de coeficientes. As, para la expresin explcita con 1 = k :
) (
1 2 1 1 +
+ + =
n n n n
f f h y y
)) ( ) ( ( ) ( ) (
2 1
h x y x y h x y h x y
n n n n
+ + +
+ + + ) ( ) ( ) (
1 n n n
x y h x y h x y
( ) L + + ) ( ) ( ) (
2
2
1
2 n n n
x y h x y h x y h
( )
3
2
2
2 1
) ( ) ( ) ( ) ( ) ( ) ( h O x y h x y h x y h x y
n n n n
+ + + + +
Comparando con:
( )
3 2
2
1
) ( ) ( ) ( ) ( h O x y h x y h x y h x y
n n n n
+ + + = +
Se tiene que: 1
2 1
= + y
2
1
2
= , de donde:
2
3
1
= y
2
1
2
= , es decir:
) 3 (
2
1 1 +
+ =
n n n n
f f
h
y y
Algunos resultados similares se listan a continuacin. El error de truncacin local es de
( )
2 + k
h O y el global de ( )
1 + k
h O :
Mtodos de Adams Bashfort (explcitos):
k
) (
1 2 3 1 2 1 1 k n k n n n n n
f f f f h y y
+ +
+ + + + + = L
0 n n n
f h y y + =
+1

Euler
1
) 3 (
1 2
1
1 +
+ =
n n n n
f f h y y

3
) 9 37 59 55 (
3 2 1 24
1
1 +
+ + =
n n n n n n
f f f f h y y

Mtodos de Adams Moulton (implcitos):
k
) (
1 2 3 1 2 1 1 0 1 + + +
+ + + + + + =
k n k n n n n n n
f f f f f h y y L
0 1 1 + +
+ =
n n n
f h y y
Euler inverso
1
) (
1 2
1
1 n n n n
f f h y y + + =
+ +

Crank Nicholson
(regla trapezoidal)
3
) 5 19 9 (
2 1 1 24
1
1 + +
+ + + =
n n n n n n
f f f f h y y


H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 9
6.2.5 Procedimientos Predictor Corrector
El error de truncacin de una frmula implcita de este tipo es siempre menor que el error
del correspondiente proceso explcito del mismo orden. Excepto en el caso trivial en que
la funcin ) , ( y x f es lineal, la solucin de la(s) ecuacin(es) que definen el proceso
implcito requiere iterar. Con tal fin, se utiliza como primera aproximacin el resultado
obtenido con la frmula explcita (predictor). Esta aproximacin se refina utilizando
repetidamente la correspondiente frmula implcita (que en este contexto se denomina
corrector). Por ejemplo:
) , (
) 0 (
1 n n n n
y x f h y y + =
+

) , (
) (
1 1
) 1 (
1
i
n n n
i
n
y x f h y y
+ +
+
+
+ =
El superndice se refiere en este caso a la iteracin. Pueden, por supuesto, plantearse
mtodos Predictor Corrector en los que las expresiones empleadas no sean las de
Adams Bashfort Moulton. Tal es el caso del mtodo de Milne (un procedimiento
dbilmente estable, que no se recomienda):
Error local
Predictor: ) 2 2 (
2 1 3
4
3
) 0 (
1 +
+ + =
n n n n n
f f f h y y ( ) ) (
5
45
14

v
y h O
Corrector: ) 4 (
1
) (
1 3
1
1
) 1 (
1 +
+
+
+ + + =
n n
i
n n
i
n
f f f h y y ( ) ) (
5
90
1

v
y h O
Supngase, por ejemplo, la ecuacin:
2
xy y = con condicin inicial 2 ) 0 (
0
= = y y . Se
ha obtenido (con algn otro mtodo) 198 980 . 1 ) 1 . 0 (
1
= y y .
Con el predictor ) 3 (
1 2
1
) 0 (
1 +
+ =
n n n n
f f h y y se tiene:
[ ]
[ ] 380 921 . 1 0 ) 198 980 . 1 ( 3 . 0 05 . 0 198 980 . 1
) ( ) ( 3 05 . 0
2
2
0 0
2
1 1 1
) 0 (
2
= + =
= + + = y x y x y y

y luego con el corrector (en este caso la regla trapezoidal, tambin conocida como
mtodo de Crank Nicholson):
) (
1 2
1
1 n n n n
f f h y y + + =
+ +

se tiene:
[ ]
[ ] 675 923 . 1 ) 198 980 . 1 ( 1 . 0 ) 380 921 . 1 ( 2 . 0 05 . 0 198 980 . 1
) ( ) ( 05 . 0
2 2
2
1 1
2 ) 0 (
2 2 1
) 1 (
2
= + =
= + + = y x y x y y

Y en forma similar:
590 923 . 1
590 923 . 1
587 923 . 1
) 4 (
2
) 3 (
2
) 2 (
2
=
=
=
y
y
y

El proceso es en este caso convergente. La solucin exacta es en este caso
) 1 ( 2
2
x y + = , de donde 077 923 . 1 ) 2 . 0 ( = y
Si el intervalo de integracin, h , es demasiado grande, se observan importantes
diferencias entre la aproximacin inicial obtenida con el predictor,
) 0 (
1 + n
y , y el valor
corregido,
) (
1
k
n
y
+
. En tal caso la convergencia es lenta, e incluso podra no producirse.
Por otro lado, diferencias insignificantes implican que h es innecesariamente pequeo.

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 10
6.2.6 Consistencia, Estabilidad y Convergencia
Al emplear una ecuacin de diferencias en lugar de la ecuacin diferencial, se introducen
errores de truncacin en cada paso.
Por ejemplo, en el mtodo de Euler, la expresin:
L + + + = + ) (
2
) ( ) ( ) (
2
x y
h
x y h x y h x y
se remplaza por:
) , (
1 n n n n
y x f h y y + =
+

tenindose un error de orden
2
h . A esto deben agregarse los errores debidos a la
aritmtica imperfecta del ordenador.
Evidentemente no es posible determinar estos errores, pero si pueden hacerse algunas
estimaciones.
Al emplear un mtodo numrico para resolver EDO, se espera que ste sea
convergente, lo que significa que al trabajar con intervalos, h , cada vez ms pequeos,
las soluciones deben aproximar cada vez ms a la solucin exacta. Para que el
procedimiento numrico sea convergente debe ser consistente y estable.
Consistencia significa que en el lmite 0 h la ecuacin de diferencias que define el
mtodo numrico resulta formalmente la ecuacin diferencial. Refirindose nuevamente
al mtodo de Euler, que puede escribirse:
h
y y
y x f
n n
n n

=
+1
) , (
se observa que:
) (
) ( ) (
0
n
n n
h
x y
h
x y h x y
Lim =
+


Si en cambio se escribiera, por ejemplo, ) , ( 2
1 n n n n
y x f h y y + =
+
no habra
consistencia.
Para que el procedimiento numrico sea convergente no es suficiente que sea
consistente. Se requiere adems que sea estable. Un mtodo es estable cuando los
errores de truncacin y de redondeo, al propagarse durante el proceso, son siempre
pequeos en comparacin con la solucin exacta.
CONSISTENCIA + ESTABILIDAD CONVERGENCIA
Alternativamente, podra decirse que un mtodo es estable si, para condiciones iniciales
tpicas y siempre que los errores de truncacin y de redondeo sean pequeos, se tiene
convergencia.
Un ejemplo de inestabilidad numrica
Para una observacin inicial sobre el tema de estabilidad, considrese la ecuacin
diferencial y y = , con condicin inicial 1 ) 0 ( = y , cuya solucin exacta es
x
e y

= . El
mtodo de Euler podra ser apropiado en este caso. Sin embargo, supngase que se
emplea la regla explcita del punto medio:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 11
( )
n n n n
y x f h y y , 2
1 1
+ =
+

con intervalo 1 . 0 = h , es decir:
n n n
y y y 2 . 0
1 1
=
+

Para iniciar el proceso no es suficiente conocer 1 ) 0 (
0
= = y y . Se requiere adems
1
y .
Supngase que se calcula 96 035 418 837 904 . 0
1 . 0
1
= = =

e e y
h
, con 13 cifras
significativas correctas. Trabajando con aritmtica de doble precisin se obtienen:
i
i
x ( )
i
x y
i
y ( )
i i i
x y y e =
0 0.0 1.000000 1.000000 0.000000
1 0.1 0.904837 0.904837 0.000000
2 0.2 0.818731 0.819033 0.000302
3 0.3 0.740818 0.741031 0.000213
. . .
97 9.7 0.000061 -1.199394 -1.199455
98 9.8 0.000055 1.325440 1.325385
99 9.9 0.000050 -1.464482 -1.464532
100 10 0.000045 1.618337 1.618291
La solucin exacta es exponencialmente decreciente, como se indica en lnea gruesa en
la figura siguiente. Sin embargo, el procedimiento produce los resultados que se
presentan en lnea ms delgada. Despus de aproximadamente 5 = x se obtienen
valores con signos alternados, con amplitud cada vez mayor (que podra llegar a rebasar
el nmero mximo que puede almacenarse). Esto es una inestabilidad numrica.
-2.0
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
0 2 4 6 8 10 12
x
y
(
x
)

Si se reduce h o se aumenta el nmero de cifras en los cmputos el problema puede
posponerse, pero no evitarse. A qu se debe esta inestabilidad?
Considrese la ecuacin diferencial:
y y =
para la cual el mtodo explcito del punto medio resulta:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 12
n n n
y h y y + =
+
2
1 1

Esta es una ecuacin de diferencias lineal de orden 2. Definiendo h = , la ecuacin
caracterstica es:
r r + = 2 1
2

con las races:
( ) ( )
4 2
2
1
2
1
2
1
1 1 + + + = + + = O r
1
2
1
r
r =
Al comparar la primera de estas expresiones con la expansin en series:
( )
4 3
6
1 2
2
1
1 + + + + =

O e
se concluye que:
( )
4 3
6
1
1
+ =

O e r
n
x h n n n
e e e r

= =
1

( ) ( )
n
x n n n n
e r r

= 1 1
1 2

y en consecuencia:
( )
n
x n
n
x n n
n
e C e C r C r C y

+ + =
2 1 2 2 1 1
1
La solucin de la ecuacin de diferencias tiene dos modos componentes, el primero de
los cuales corresponde a la solucin correcta, mientras que el segundo no debera
existir. En teora se debera tener 1
1
= C y 0
2
= C , de modo que
n
x
n
e y

, pero no es
as, ni siquiera al iniciarse el proceso. Efectivamente, para el caso 1 . 0 = = h , los
valores iniciales hacen que:
1
2 1 0
= + = C C y
1 . 0
2 2 1 1 1

= + = e r C r C y
de donde, trabajando en doble precisin:
( ) ( )
5
1 2 1
1 . 0
2
10 947 469 . 7

= r r r e C
y suponiendo que las operaciones siguientes se efectuaran con una aritmtica
infinitamente precisa:
( )
365 645 . 1 10 947 469 . 7
1 . 0 100 5 100
2 2
=

e r C
Ntese que este resultado es similar al error observado para 10 = x . Por otro lado, an
cuando inicialmente se tuviera 0
2
= C , los errores numricos introduciran la
componente extraa. El factor ( )
n
1 explica la alternancia de signos del error.
El procedimiento no funciona para negativo, porque en ese caso el modo extrao
( )
x n
e C

2
1 tiende a crecer, mientras que la solucin
x
e C

1
es decreciente. Sin
embargo, si sirve para el caso (poco prctico) en que es positivo y la solucin es
exponencialmente creciente.
Regin de estabilidad absoluta

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 13
Puede obtenerse valiosa informacin con relacin al comportamiento de un mtodo
numrico de solucin de EDO al observarse cmo funciona con una ecuacin de la
forma y y = , donde es una variable compleja, con condicin inicial 1 ) 0 ( = y . Con
referencia a esta ecuacin, se define la regin de estabilidad absoluta de un mtodo
numrico como el lugar geomtrico de los h para los que la solucin es finita cuando
n . Esto es equivalente a decir que las races de la ecuacin caracterstica
satisfacen 1
i
r .
Para 0 h se requiere que una de las races sea igual a 1 (esto es un requisito para
que el mtodo sea consistente). Sin embargo, si dos o ms races tienen mdulo igual a
1 el mtodo es dbilmente estable y con frecuencia tiene problemas numricos. Este es
el caso del mtodo explcito del punto medio, del que se trat en el acpite anterior.
Considrese, por ejemplo, el mtodo de Euler:
( )
n n n n
y x f h y y ,
1
+ =
+

que aplicado a la ecuacin y y = resulta:
( )
n n n n
y h y h y y + = + =
+
1
1

La solucin de esta ecuacin de diferencias es de la forma
n
n
r y = . Al sustituir esta
solucin en la ecuacin de diferencias se obtiene la ecuacin caracterstica:
h r + =1
La regin de estabilidad absoluta queda definida por: 1 1 + h . Esta es el rea
dentro de una circunferencia de radio 1 y con centro en (-1,0):
Regin de estabilidad absoluta - Euler
-2
-1
0
1
2
-3 -2 -1 0 1 2
Re h
Im h

Puede concluirse que el mtodo de Euler es apropiado para integrar ecuaciones cuya
solucin es exponencialmente decreciente ( 0 < ), pero no para el caso en que la
solucin es oscilatoria y no amortiguada ( imaginaria pura).
Anlogamente para el mtodo de Euler inverso:
( )
1 1 1 1
,
+ + + +
+ = + =
n n n n n n
y h y y x f h y y
se obtiene:
h
r

=
1
1


H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 14
La regin de estabilidad absoluta, en la que 1 r , es en este caso la regin externa al
crculo de radio 1 y con centro en (1,0).
Regin de estabilidad absoluta
Euler Inverso
-2
-1
0
1
2
-2 -1 0 1 2 3
Re h
Im h

El mtodo de Euler inverso sera apropiado para el caso en que la solucin es
oscilatoria, amortiguada o no. No debera emplearse para integrar ecuaciones cuya
solucin es exponencialmente creciente, ya que por consideraciones de estabilidad
requerira un paso grande, lo que estara en conflicto con los objetivos de precisin.
Todos los procesos de Runge Kutta del mismo orden tienen la misma regin de
estabilidad absoluta. Por ejemplo, considrese un proceso de segundo orden, mtodo
de Heun, tambin llamado Euler modificado:
( )
( ) ( ) [ ] y x f y x f
h
y y
y x f h y y
n n n n n
n n n
, ,
2
,
1 1 + +
+ + =
+ =

que aplicado a la ecuacin y y = resulta:
( )
( ) [ ] ( ) [ ]
n n n n n n
n n n
y h h y h y y
h
y y
y h y h y y
2
2
1
1
1
2
1
+ + = + + + =
+ = + =
+

y por lo tanto : ( )
2
2
1
1 h h r + + = . La condicin 1 r es satisfecha por todos los
puntos dentro del elipsoide que se muestra en la figura siguiente:
Regin de estabilidad absoluta
Runge Kutta - Segundo Orden
-2
-1
0
1
2
-3 -2 -1 0 1
Re h
Im h



H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 15
Otros mtodos de Runge Kutta de segundo orden, como el mtodo del punto medio o el
mtodo de Ralston, tienen exactamente la misma ecuacin caracterstica y por lo tanto la
misma regin de estabilidad absoluta.
Para el clsico mtodo de Runge Kutta:
( )
( )
( )
( )
( )
4 3 2 1 6
1
1
3 4
2 2
1
2
1
3
1 2
1
2
1
2
1
2 2
,
,
,
,
k k k k y y
k y h x f h k
k y h x f h k
k y h x f h k
y x f h k
n n
n n
n n
n n
n n
+ + + + =
+ + =
+ + =
+ + =
=
+

se obtienen en este caso:
( )
( ) ( )
( ) ( ) ( )
( ) ( ) ( ) ( )
n n
n
n
n
n
y h h h h y
y h h h h k
y h h h k
y h h k
y h k
4
24
1
3
6
1
2
2
1
1
3
4
1
2
2
1
4
2
4
1
2
1
3
2
1
2
1
1
1
1
1
+ + + + =
+ + + =
+ + =
+ =
=
+

Y resulta:
( ) ( ) ( )
4
24
1
3
6
1
2
2
1
1 h h h h r + + + + =
La expresin es la misma para cualquier otro mtodo de Runge Kutta de cuarto orden
(global): La regin de estabilidad absoluta es aquella dentro del lmite indicado en la
figura siguiente:
Regin de estabilidad absoluta
Runge - Kutta 4
o
Orden
-4
-3
-2
-1
0
1
2
3
4
-3 -2 -1 0 1
Re (h)
Im (h)

Las mismas ideas pueden tambin aplicarse a mtodos de pasos mltiples. Por
ejemplo, para la regla explcita del punto medio, a la que se hizo referencia al inicio de
esta seccin:
( )
n n n n n n
y h y y x f h y y + = + =
+
2 , 2
1 1 1

se obtienen las races de la ecuacin caracterstica:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 16
( ) ( )
2
1
2
1 h h r + =
y para tener 1
i
r se requiere que h sea imaginaria pura, en el rango entre i y
i + . Debe observarse que este mtodo es dbilmente estable, porque para 0 h se
tiene 1
2 1
= = r r .
Un mejor mtodo de pasos mltiples es la regla trapezoidal o mtodo de Crank
Nicholson:
( ) ( ) [ ]
1 1 2
1
1
, ,
+ + +
+ + =
n n n n n n
y x f y x f h y y
que para el caso y y = resulta:
( )
1 2
1
1 + +
+ + =
n n n n
y y h y y
de donde:
( ) ( ) h r h + =
2
1
2
1
1 1
y por lo tanto se requiere que: 1
1
1
2
1
2
1

+
=
h
h
r

, es decir ( ) 0 Re h .
6.3. Mtodos para EDO de Segundo Orden
Las ecuaciones diferenciales de segundo orden siempre pueden rescribirse como un
sistema de ecuaciones de primer orden. Sin embargo, es ms eficiente emplear
mtodos ms especficos, como los que se describen a continuacin.
6.3.1 Runge Kutta
Para resolver EDO de la forma ) , , ( y y x f y = , con condiciones iniciales
0
) ( y a y = e
0
) ( y a y = se encuentran en la literatura modificaciones de los mtodos de Runge Kutta
como, por ejemplo, el proceso de cuarto orden (global):
( )
( )
( )
( )
( )
( ) [ ]
3 2 1 6
1
1
4 3 2 1 6
1
1
3 3 2
1
4
2
2
1
1
8
1
2
1
2
1
3
1 2
1
1 8
1
2
1
2
1
2
1
2 2
, ,
, ,
, ,
, ,
k k k y h y y
k k k k y y
k y k h y h y h x f h k
k y k h y h y h x f h k
k y k h y h y h x f h k
y y x f h k
n n n
n n
n n n
n n n
n n n
n n n
+ + + + =
+ + + + =
+ + + + =
+ + + + =
+ + + + =
=
+
+

6.3.2 Mtodo de Diferencia Central
Este procedimiento se basa en sustituir las derivadas por sus aproximaciones con
diferencias centrales. As al resolver:
( ) t f ku u m = +
& &

se puede aproximar la segunda derivada con:
2
1 1
) (
2
t
u u u
u
n n n
n

+
=
+
& &

de donde resulta: ) ) ( (
) (
2
2
1 1 n n n n
u k t f
m
t
u u u

+ =
+
.
Este mtodo puede tambin escribirse en la forma sumada:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 17
( )
n n n
ku t f u m =
& &

t u u u
n
n n
+ =
+
& & & &
2
1
2
1

t u u u
n
n n
+ =
+
+
2
1 1
&

cuya interpretacin fsica es simple.
Cuando la ecuacin es de la forma: ( ) t f ku u c u m = + +
& & &
conviene aproximar la primera
derivada mediante:
t
u u
u
n n
n

=
+
2
1 1
&

Y no con una diferencia hacia atrs, que a primera vista podra parecer una mejor
eleccin. Esta consideracin se relaciona con el tema de estabilidad, que se trata ms
adelante. Con la aproximacin antes mencionada se obtiene:
( )
1
2 2
1
2
2 ) ( ) (
2
2 ) (
+
|
|

\
|

|
|

\
|

=
|
|

\
|

n n n n
u
t
c
t
m
u
t
m
k t f u
t
c
t
m

6.3.3 Mtodo de Newmark
La familia de mtodos de Newmark se basa en aproximaciones de la forma:
( ) [ ]
1 1
1
+ +
+ + =
n n n n
u u t u u
& & & & & &


( ) ( ) [ ]
1 2
1
2
1 + +
+ + + =
n n n n n
u u t u t u u
& & & & &


El caso con
2
1
= y
6
1
= corresponde a suponer que u
& &
(la aceleracin) vara
linealmente en el intervalo. Aparentemente esa eleccin sera mejor que
2
1
= y
4
1
=
(lo que fsicamente se interpretara como suponer una aceleracin constante promedio).
Sin embargo, esta ltima eleccin es ms apropiada, tambin por consideraciones de
estabilidad, a las que se hace referencia ms adelante.
Al remplazar las aproximaciones en:
( )
1 1 1 1 + + + +
= + +
n n n n
t f u k u c u m
& & &

se obtiene:

1 1

+ +
=
n n
f u k

donde:
c a m a k k
1 0

+ + =
)

5 4 1 3 2 0 1 1 n n n n n n n n
u a u a u (a c ) u a u a u (a m f f
& & & & & &
+ + + + + + =
+ +

y los coeficientes
7 0
a a L son:
2
0
) (
1
t
a


t
a

1

t
a

1
2

1
2
1
3
=

a 1
4
=

a |

\
|

= 2
2
5

t
a
( ) = 1
6
t a t a =
7

Finalmente se pueden determinar los nuevos valores de u
&
y u
& &
mediante:
1 7 6 1
3 2 1 0 1
+ +
+ +
+ + =
=
n n n n
n n n n n
u a u a u u
u a u a ) u (u a u
& & & & & &
& & & & &


H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 18
6.3.4 Estabilidad y Precisin
Todos los mtodos para resolver EDO de segundo orden pueden ser escritos en la
forma:
n n n
f b u A u + =
+1

donde
n
u representa ahora el conjunto de resultados que describen la respuesta en el
paso n . Por ejemplo, para el mtodo de diferencia central:
n
n
n
n
n
f t
t
u
u
t
t
t
t
u
u

|
|
|
|

\
|
+

+

=

+
0
1
) (
0 1
1
1
1
) ( 2
2
1
2
1



Los errores se comportan en forma anloga, pudiendo demostrarse que:
n n
A =
+1

y por lo tanto, para que los errores se reduzcan (es decir, para que el mtodo sea
estable) se requiere que:
1 mx ) ( =
i
A
En esta expresin ) (A es el radio espectral y los
i
son los valores caractersticos de
A . Para el caso en que 0 = y se utiliza el mtodo de diferencia central, la condicin
1 ) ( A se cumple cuando:

T
t =
2

Se dice entonces que el mtodo de diferencia central es condicionalmente estable. Si
t excede el lmite antes indicado se produce una inestabilidad numrica. El lmite
corresponde a algo ms que tres puntos por perodo, lo que sin embargo resulta
insuficiente para tener buena precisin. Con 10 / T t = se introducen errores del orden
de 3% en cada paso, mientras que con 20 / T t = los errores son del orden de 1%.
Para la familia de mtodos de Newmark pueden tambin obtenerse las condiciones de
estabilidad:
2
) 5 . 0 ( 25 . 0
50 . 0


Con una apropiada seleccin de los parmetros (lo habitual es
2
1
= y
6
1
= ) se tiene
un procedimiento incondicionalmente estable, es decir estable para cualquier seleccin
de t . Nuevamente, el intervalo de integracin est limitado por la precisin.
Dos procesos a los que tambin se hace referencia en la literatura son los mtodos de
Houbolt y de Wilson. Ambos mtodos son tambin (para una seleccin apropiada de sus
parmetros) incondicionalmente estables, pero acumulan mucho ms errores que el de
Newmark de aceleracin constante y por tanto no son tan convenientes.
6.4. Sistemas de Ecuaciones Diferenciales Ordinarias
6.4.1 Integracin Directa
Cuando las EDO son no lineales, y en consecuencia no es factible la descomposicin
modal a la que se hace referencia en la seccin siguiente, cabe la posibilidad de integrar
directamente las ecuaciones en su forma original. Las expresiones son prcticamente

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 19
las mismas usadas para el caso de una sola ecuacin diferencial, excepto que todas las
operaciones son realizadas con matrices. As, por ejemplo, para resolver el sistema de
EDO de primer orden:
) , ( y f y x =
Podra emplearse el mtodo de Runge Kutta de cuarto orden:
( )
( )
( )
( )
( )
4 3 2 1 6
1
1
3 4
2 2
1
2
1
3
1 2
1
2
1
2
1
2 2
,
,
,
,
k k k k y y
k y f k
k y f k
k y f k
y f k
+ + + + =
+ + =
+ + =
+ + =
=
+
h
h h x
h h x
h h x
x
n n
n n
n n
n n
n n

(como es habitual, las minsculas en letras negritas denotan matrices columna).
Anlogamente, para resolver el sistema de ecuaciones diferenciales de segundo orden:
( ) t f u K u M = +
& &

podra emplearse el mtodo de diferencia central:
( )
n n n
t u K f u M =
& &

t
n
n n
+ =
+
u u u
& & & &
2
1
2
1

t
n
n n
+ =
+
+
2
1 1
u u u
&

El mtodo de diferencia central es particularmente eficiente para el caso de EDO no
lineales si la matriz M es diagonal (una aproximacin frecuente en ingeniera). Puede
anotarse que en el caso de ecuaciones no lineales no requiere obtenerse K
explcitamente, sino ms bien el producto u K (lo que puede ser notoriamente ms fcil).
Otra posibilidad para resolver ecuaciones de la forma
1 1 1 1 + + + +
= + +
n n n n
f u K u C u M
& & &
sera
el mtodo de Newmark, en el que
1 + n
u se obtiene de:
1 1

+ +
=
n n
f u K
U L C M K K = + + =
1 0

a a
)

5 4 1 3 2 0 1 1 n n n n n n n n
a a (a ) a a (a u u u C u u u M f f
& & & & & &
+ + + + + + =
+ +

y luego:
t t t t t t
t t t t t t t
a a
a a a
+ +
+ +
+ + =
=
u u u u
u u u u u
& & & & & &
& & & & &
7 6
3 2 0
) (

Los coeficientes
7 0
a a L son los mismos de la seccin 6.3.3.
Al resolver EDO no lineales el mtodo de Newmark, en la forma antes descrita, requerira
una nueva factorizacin U L K =

en cada paso. El proceso podra mejorarse


descomponiendo K

en dos partes y pasando los trminos no lineales al segundo


miembro, como parte de
1

+ n
f .
6.4.2 Descomposicin Modal
Cuando el sistema de ecuaciones diferenciales es lineal, y particularmente si las
matrices que definen el sistema de ecuaciones diferenciales son simtricas, el
procedimiento ms eficiente se basa en la descomposicin modal. Para mostrar en que

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 20
consiste la descomposicin modal, supngase que se tiene el sistema de ecuaciones
diferenciales:
) (t f Ax x B = +
&

Las matrices A y B son simtricas (y muy frecuentemente definidas positivas). La
descomposicin modal emplea los vectores caractersticos

obtenidos de:
i i i
B A =
Estos vectores constituyen una base completa, y por lo tanto la solucin ) (t x puede
siempre expresarse como una combinacin lineal de los referidos vectores:

=
j j
a t ) ( x
Ntese que, siendo las matrices A y B constantes, los vectores caractersticos

no
son funcin de tiempo. Sin embargo, las componentes no pueden en general ser
constantes, puesto que la solucin no los es. Por lo tanto:

=
j j
t a t ) ( ) (
& &
x
Al sustituir las expresiones anteriores en el sistema de ecuaciones diferenciales se tiene:
) (t a a
j j j j
f A B = +


&
Conviene ahora recordar las condiciones de ortogonalidad:
rs r s
= B
*

rs r r s
= A
*

Para simplificar la presentacin, se ha supuesto que los vectores caractersticos estn
normalizados respecto a la matriz B .
Al pre multiplicar las ecuaciones por

:
) (t a a

j

j j

j
f A B = +

&
Se observa que la mayor parte de los productos que se tienen en cada suma son cero.
Slo son distintos de cero aquellos en los que los dos ndices i,j son iguales. En
consecuencia se obtienen ecuaciones desacopladas, independientes para cada
componente ) (t a
j
:
) (t a a

i i i
f = +
&

Por otro lado, si las condiciones iniciales son
0
) 0 ( x x = , entonces:

= =
j j
a ) 0 ( ) 0 (
0
x x
y por lo tanto, al premultiplicar por B

:
0
) 0 ( x B

i
a =
Resolver n de estas ecuaciones desacopladas es mucho ms fcil que resolver un solo
sistema de ecuaciones diferenciales de orden n (puede aqu hacerse un paralelismo con
el caso de ecuaciones algebraicas). Adems, en muchas situaciones prcticas se
observa que las componentes ) (t a asociadas a los mayores valores caractersticos son

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 21
poco importantes, y pueden despreciarse. Por ello, se justifica plenamente el trabajo de
determinar previamente los valores caractersticos.
Las ecuaciones desacopladas puede resolverse con algunos de los procedimientos
numricos tratados en la seccin 6.2. Por ejemplo, si los valores caractersticos fueran
negativos podra emplearse el mtodo de Euler. En el caso en que las funciones ) (t f
son simples podra tambin pensarse en una solucin analtica. Obtenidas cada una de
las componentes como funcin de tiempo, puede regresarse a la expresin:

=
j j
a t ) ( x

para hallar la solucin ) (t x .
Un caso frecuente es aquel en el que ) ( ) (
0
t g t f f = y la funcin ) (t g est definida por
una coleccin de valores numricos correspondientes a valores t uniformemente
espaciados. En un intervalo cualquiera puede hacerse la aproximacin: b t a t g + = ) ( ,
de donde, para cada una de las ecuaciones desacopladas se tiene:
) (
0
b t a a a

i i i
+ = + f &

Cuya solucin puede obtenerse fcilmente (sumando la solucin homognea
t
e C

y la
particular, de la forma B t A + ):
Conociendo
i
a al inicio del intervalo, puede obtenerse la constante C y calcularse
entonces el valor de
i
a al finalizar el intervalo. El proceso se repite anlogamente para
los sucesivos intervalos.
Cabe anotar que este procedimiento es incondicionalmente estable. En realidad, sera
exacto si la funcin fuera efectivamente lineal por intervalos. La aproximacin est en
haber descrito la funcin ) (t g con un nmero finito de valores numricos, a partir de los
cuales se est interpolando linealmente.
Las mismas ideas pueden aplicarse a sistemas lineales de ecuaciones diferenciales de
segundo orden: f u K u C u M = + +
& & &
. En este caso podran primero determinarse los
valores y vectores caractersticos del problema: M K
2
= . Aqu se ha supuesto que
K y M son no slo simtricas, sino tambin definidas positivas, por lo que los
2
=
son positivos.
Nuevamente, la solucin puede escribirse como una combinacin lineal de los vectores
caractersticos (que en lo que sigue se han supuesto normalizados respecto a M):

=
j j
t a t ) ( ) ( u

Los vectores caractersticos satisfacen las condiciones de ortogonalidad:
rs r s
= M
*

rs r r s
=
2 *
K
Pero, salvo en algunos casos particulares, no podra afirmarse algo similar con la matriz
C. Sin embargo, hay aplicaciones en que la inclusin del trmino u C
&
es slo un
artificio para introducir disipacin en las ecuaciones lineales, que realmente podra
haberse considerado con una K variable, dependiente de u . En este contexto, podra
introducirse directamente la disipacin en las ecuaciones desacopladas, no siendo
necesario determinar la matriz C:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 22
) ( 2
2
t a a a

i i i i i
f = + + & & &

Estas ecuaciones pueden tambin ser resueltas numricamente, por procedimientos
tales como el mtodo de diferencia central o el mtodo de Newmark de aceleracin
constante.
En el caso frecuente en el que ) ( ) (
0
t g t f f = , estando ) (t g definida por una coleccin de
valores numricos a intervalos constantes, puede seguirse un procedimiento similar al
descrito antes para ecuaciones diferenciales de primer orden.
6.4.3 Consideraciones Adicionales
En el acpite 6.3.4 se mencion que al resolver una ecuacin diferencial de segundo
orden el intervalo est controlado por precisin y no por estabilidad. La situacin es
diferente cuando se resuelven grandes sistemas de EDO. Los comentarios siguientes
parecieran referirse a sistemas de EDO lineales, pero realmente son tambin aplicables
a ecuaciones no lineales, que pueden ser linearizadas localmente.
Al integrar directamente un sistema de EDO se estn haciendo operaciones equivalentes
a integrar las ecuaciones desacopladas; simplemente el sistema de referencia es
distinto. El procedimiento ser estable cuando el intervalo de integracin cumpla las
condiciones de estabilidad con todos y cada uno de los modos componentes. Por lo
tanto, para un mtodo como el de la diferencia central:


mn
mx
T
t
2

Cuando se tiene un comportamiento no lineal los perodos T tienden a crecer (y los
tienden a reducirse), por lo que la estimacin del t sobre la base de las condiciones
iniciales es en general suficiente.
Por otro lado:
mx
<< L
2 1

mn
T T T >> L
2 1

y habitualmente al cumplir la condicin de estabilidad se tendrn cientos y tal vez miles
de puntos por perodo para los modos asociados a las menores frecuencias, que son los
importantes en la respuesta. En resumen, al resolver grandes sistemas de EDO con un
procedimiento condicionalmente estable, satisfacer la condicin de estabilidad implica
que se tiene tambin precisin.
En cambio, al emplear un mtodo incondicionalmente estable es la precisin la que
siempre controla el intervalo de integracin. ste debe escogerse de modo que se
integren con suficiente precisin todos aquellos modos cuya participacin en la
respuesta es significativa.
Considere el sistema de ecuaciones diferenciales 0 Au u = +
& &
en la que la matriz A es:
|
|

\
|
=
5 . 200 5 . 199
5 . 199 5 . 200
A
Los valores caractersticos de la matriz A son 1
2
1 1
= = y 400
2
2 2
= = .
Supngase que las condiciones iniciales son:

H. Scaletti - Mtodos Numricos: Ecuaciones Diferenciales Ordinarias 6 - 23
)
`

=
99 . 0
01 . 1
) 0 ( u
)
`

=
0
0
) 0 ( u
&

En este caso es fcil obtener la solucin exacta:
t t u 20 cos
1
1
01 . 0 cos
1
1
)
`

+
)
`

=
El primer modo, con 1
1
= y 2
1
= T es el importante en la solucin. La contribucin
del segundo modo, con 20
2
= y 10 /
2
= T es comparativamente pequea.
Supngase ahora que se usa el proceso de diferencia central:
2
1
2
1
2
1
1 + +
+
+ =
+ =
=
n n n
n n n
n n
t
t
u u u
u u u
Au u
&
& & & &
& &

con condiciones iniciales
)
`

=
99 . 0
01 . 1
0
u y
)
`

= + =
0
0
) 0 (
0
2
1
2
1
u u u
& & & &
t
Para integrar apropiadamente el primer modo sera suficiente considerar un t del
orden de 3 . 0 20 /
1
T . Sin embargo, es el segundo modo, poco importante en la
respuesta, el que en este caso controla la estabilidad. Se requiere reducir el intervalo,
de modo que: 1 . 0 / / 2
2 2
= = < T t lo que indirectamente hace que se obtenga
precisin en la integracin de la componente significativa. En las figuras siguientes se
muestran resultados obtenidos con 1001 . 0 = t (el procedimiento es inestable) y con
09 . 0 = t (procedimiento estable). Los resultados seran an ms precisos si
n
T T >>
1
,
como ocurre tpicamente al resolver grandes sistemas de ecuaciones diferenciales.
-1000
-500
0
500
1000
0 2 4 6 8 10
t
u

Resultados obtenidos con 1001 . 0 = t
-2
-1
-1
0
1
1
2
0 2 4 6 8 10
t
u

Resultados obtenidos con 09 . 0 = t
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 1
8. Transformadas de Fourier Discretas
8.1 Introduccin
En numerosos problemas de ingeniera, como por ejemplo al estudiar vibraciones
mecnicas, se tienen funciones peridicas. Una funcin ) (t f es peridica, con perodo
T , si ) ( ) ( t f T t f = + para todo t . En tal caso ) (t f puede ser expresada en series de
Fourier
1
:
( )

= + + =
1
0 2
1
) sen( ) ( cos ) (
j j
t i
j j j j j
j
e c t b t a a t f (8.1)
donde ( ) T j
j
/ 2 = y T es el perodo. Puede demostrarse que:
) ( ), ( ,
2
1
2
1
0 0 k k k k k k
ib a c ib a c a c + = = =

(8.2)
siendo 1 = i .
Por ejemplo, para la onda rectangular con perodo 2 :

< <
< <
=

t
t
t f
0 1
0 1
) (
Se obtiene:
|

\
|
+ + + = L
5
5 sen
3
3 sen
sen
4
) (
x x
x t f


En la figura se muestra la aproximacin obtenida considerando 10 trminos de la serie:
-1.5
-1
-0.5
0
0.5
1
1.5
-6 -4 -2 0 2 4 6

Si f y su primera derivada son continuas, la serie es convergente para todo t . Cuanto
ms regular sea la funcin, mayor es la velocidad de convergencia. Si f y f tienen un
nmero finito de discontinuidades finitas en cada perodo, la serie produce el valor medio
en cada uno de tales puntos.
En los procedimientos numricos las funciones se expresan por colecciones de valores
) (
n n
t f f = que habitualmente corresponden a abscisas uniformemente espaciadas:
t n t
n
= . Si la funcin es peridica podra definirse por una coleccin de N valores

1
Jean Baptiste Joseph Fourier (1768-1830), ingeniero francs. En 1807 present a la Academia Francesa su
teorema relativo a las series de F., que public posteriormente como parte de su Teora Analtica del Calor.
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 2
numricos
1 2 1 0
, , ,
N
f f f f K siendo el perodo t N T = . En lo que sigue, se denomina
a esto el caso discreto. Anlogamente a la (8.1):

= =
j
t i
j n n
n j
e c t f f ) ( (8.3)
Ntese que ( )
n j n N j
t i
t n
t N
j
i
n
i
t n
t N
N j
i
t i
e e e e e

|
|

\
|

|
|

\
|

= = =
+

2
2
2
, por lo que factorizando
se puede escribir:

=
1
0

N
j
t i
j n
n j
e c f (8.4)
En la seccin siguiente se revisan expresiones que permiten determinar los coeficientes
de tales series. Para simplificar la presentacin se ha escrito
j
c en lugar de
j
c .
8.2 Ortogonalidad de las Funciones Armnicas
Caso continuo
Supngase que se tienen dos funciones peridicas ) ( ) ( T t f t f + = y ) ( ) ( T t g t g + = .
En lo que sigue se hace referencia al producto interno de tales funciones peridicas:

=
T
dt t g t f g f
0
) ( ) ( ) , ( (8.5)
donde ) (t g indica la conjugada de ) (t g .
Considrense ahora las funciones peridicas:
t i
j
j
e t

= ) ( para K , 2 , 1 , 0 = j ,
siendo |

\
|
=
T
j
j
2
e 1 = i . Ntese que ) ( ) ( t T t = + . Adems:
t i
j
j
e t

= ) (
Puede observarse que:

=
0
) , (
T
k j

si k j =
si k j
(8.6)
como se demuestra a continuacin. Para k j = :
T dt dt e e
T T
t i t i
j j
j j
= = =


0 0
) , (
Para k j :
0
/ ) ( 2
) , (
0 ) ( 2
0
/ ) ( 2
0
=

= = =


T k j i
e e
dt e dt e e
k j i
T
T t k j i
T
t i
t i
k j
k j


Caso discreto
En este caso el producto interno de dos funciones con igual perodo, T , cada una
expresada por una coleccin de N valores numricos, se define como:

=
=
1
0
) , (
N
n
n n
g f g f
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 3
Considerando nuevamente las funciones
t i
j
j
e t

= ) ( se tiene:
jn
N
i
t i
n j
e e t
n j

2
) ( = =

y
entonces:


=
|

\
|

= =
1
0
2
1
0
2 2
) , (
N
n
n
N
k j
i
N
n
kn
N
i
jn
N
i
k j
e e e



Si k j es un mltiplo de N se tiene que
N
k j
es un entero y por lo tanto:
N
N
m
k j
= =

=
1
0
1 ) , (
Por otro lado, si k j no es un mltiplo de N puede escribirse:

=
=
1
0
) , (
N
n
n
k j
q
donde
|

\
|
=
N
k j
i
e q
2
. Esta es la suma de N trminos de una progresin geomtrica, con
valor inicial 1 y razn q , que resulta:
0
1
1 1
1
1
) , ( =

=
q q
q
N
k j

Excepto para el caso antes mencionado, en que k j es un mltiplo de N , para el que
se tiene 1 = q . Resumiendo, para el caso discreto:

=
0
) , (
N
k j

si k j es mltiplo de N
en otros casos
(8.7)
8.3 Coeficientes de Fourier
Si ) (t f es peridica:

+
=

=
|

\
|
= =
j
j j
j
jt
T
i
j
t c e c t f ) ( ) (
2


O en el caso discreto


=

=
|

\
|
= =
1
0
1
0
2
) (
N
j
n j j
N
j
jn
N
i
j n
t c e c f


Los coeficientes
j
c se denominan coeficientes de Fourier. Estos pueden determinarse
con el producto interno:

=
j
k j j k
c f ) , ( ) , (
Siendo 0 ) , ( =
k j
para k j se obtiene ) , ( ) , (
k k k k
c f = y por lo tanto (despus
de cambiar k por j ):
dt e t f
T
c
T
jt
T
i
j

|

\
|

=
0
2
) (
1

en el caso continuo (8.8)

=
|

\
|

=
1
0
2
1
N
n
jn
N
i
n j
e f
N
c

en el caso discreto (8.9)


H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 4
Cuando la funcin ) (t f es real, los coeficientes
j j
b a , de la expresin (8.1) son tambin
reales. Los
j
c son en general nmeros complejos, pero si ) (t f es real tienen simetra
conjugada, es decir:
k k
c c =

, lo que puede observarse fcilmente en (8.2).


Las funciones de varias variables se tratan en forma anloga, considerando una variable
a la vez. Supngase que se conocen los valores de la funcin peridica (en ambas
direcciones) ) , (
q p
y x f que corresponden a abscisas x p x
p
= y ordenadas y q y
q
=
siendo 1 , 2 , 1 , 0 = M p K y 1 , 2 , 1 , 0 = N q K :
|

\
|

=
|

\
|

|
|

\
|
= =
M
jp
i
M
j
N
k
N
kq
i
jk q p pq
e e c y x f f
2
1
0
1
0
2
) , ( (8.10)
|

\
|

=
|

\
|


|
|

\
|
=
M
jp
i
M
p
N
q
N
kq
i
pq jk
e e f
N M
c
2
1
0
1
0
2
1 1
(8.11)
8.3 Transformadas de Fourier
Supngase una funcin ) (t f no peridica, definida para < < t y tal que tiende a
cero cuando t tiende a ms infinito o a menos infinito. En tal caso, puede obtenerse el
lmite de (8.8) para T :
dt e t f F
t i




= ) ( ) ( (8.12)
La funcin ) ( F es la transformada de Fourier de ) (t f . Anlogamente, el lmite de
(8.9) para T resulta:
=

d e F t f
t i
) (
2
1
) (

(8.13)
que se denomina transformada inversa. El factor ) 2 /( 1 podra indistintamente tenerse
en (8.12) o en (8.13).
La tabla siguiente indica algunas propiedades de simetra de las transformadas de
Fourier:
Funcin Transformada de Fourier
) (t f real
) ( ) ( = F F
) (t f imaginaria
) ( ) ( = F F
) (t f simtrica ) ( ) ( = F F
) (t f antisimtrica ) ( ) ( = F F
Si ) (t f es simultneamente real y simtrica ) ( F es tambin real y simtrica; si ) (t f
es imaginaria y antisimtrica ) ( F es tambin antisimtrica pero real.
Puede tambin demostrarse que:
=



d F t d t f
2 2
) ( ) (
Esto se conoce como el teorema de Parseval, que es de utilidad en diversas
aplicaciones.
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 5
Si ) ( F es la transformada de Fourier de ) (t f , entonces la transformada de Fourier de
) (t f
&
resulta ) ( F i . Esto se verifica fcilmente haciendo una integracin por partes.
En consecuencia, se concluye que la transformada de la derivada m-sima es
) ( ) ( F i
m
.
Si se tiene la ecuacin diferencial lineal:
m t f u u u t f ku u c u m / ) ( 2 ) (
2
= + + = + + & & & & & &
en la que k c m , , son constantes, se puede multiplicar por
t i
e

e integrar entre y
+ , para obtener:
dt e t f dt e t u k dt e t u c dt e t u m
t i t i t i t i





= + + ) ( ) ( ) ( ) ( & & &
Llamando ) ( F a la transformada de ) (t f , es decir: dt e t f F
t i




= ) ( ) (
y ) ( U a la transformada de Fourier de ) (t u : dt e t u U
t i




= ) ( ) (
se obtiene:
( ) ) ( ) (
2
= + + F U k c i m
o bien:
) ( ) ( ) ( = F H U
donde ( )
1
2
) (

+ + = k c i m H es una funcin de transferencia. Luego se obtiene
la funcin ) (t u con la transformada inversa:
=

d e U t u
t i
) (
2
1
) (


Las mismas ideas pueden aplicarse a la solucin de sistemas de ecuaciones
diferenciales lineales. Por ejemplo:
( ) ) ( ) ( ) ( = + = + F i x f c U B A c Bu u A
En este caso ) ( U denota una matriz columna que agrupa las transformadas de las
funciones agrupadas en ) (t u . Luego:
=

d e t
t i
) (
2
1
) ( U u


8.4 Algoritmo de Cooley y Tukey
2

Las operaciones requeridas para obtener los coeficientes de Fourier:

=
|

\
|

=
1
0
2
1
N
n
jn
N
i
n j
e f
N
c

(8.14)
son similares a las del proceso inverso:

=
|

\
|
=
1
0
2
N
j
jn
N
i
j n
e c f

(8.15)

2
Cooley, J.W. y Tukey, J.W. An algorithm for machine calculation of complex Fourier series. Math.Comp.,
19:297-201, 1965.
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 6
Al realizar las operaciones como se indican en (8.14) y (8.15) se requeriran en cada
caso
2
N multiplicaciones y sumas de nmeros complejos. Con el algoritmo de
Transformada de Fourier Rpida (FFT por sus iniciales en ingls) se requieren slo
N N
2
log multiplicaciones y sumas. Esto es suponiendo que N es una potencia de 2 y
que el algoritmo se escribe en su forma ms simple. Si, por ejemplo, 536 65 2
16
= = N ,
el algoritmo FFT resulta aproximadamente 4000 veces ms rpido que el procedimiento
convencional antes indicado.
Para empezar, puede observarse que, dejando de lado el factor N / 1 , las expresiones
(8.14) y (8.15) son ambas de la forma:

=
=
1
0
N
n
jn
n j
u f c
|

\
|

=
N
i
e u
2
(8.16)
Ntese que 1 =
N
u . Los prrafos siguientes se refieren a (8.16), y son igualmente
aplicables a la determinacin de los
j
c (anlisis de Fourier) o a la de los
n
f (sntesis de
Fourier). Se presenta el algoritmo FFT en su forma ms simple, suponiendo que N es
una potencia exacta de 2 , es decir,
m
N 2 = . Sin embargo, pueden aplicarse ideas
similares cuando N es arbitrario.
Los valores
n
f pueden separarse en dos grupos, aquellos que ocupan las posiciones
pares: p n 2 = y aquellos que ocupan las posiciones impares: 1 2 + = p n . Luego:


=
+

=
+ =
1
2
0
2
1 2
1
2
0
2
2
) ( ) (
N
p
jp
p
j
N
p
jp
p j
u f u u f c
Por otro lado, expresando j como q N + 2 / , donde 1 , 0 = y ( ) 1 2 / 0 < < N q , se
tiene que:
pq pq p N pq
p
N
jp
u u u u u u ) ( ) ( ) ( ) ( ) ( ) (
2 2 2
2
2 2
= = =


q q i q
N
q
N
u u e u u u = = =

+

2 2

Dividiendo los
j
c en dos grupos (para 1 , 0 = ) se obtienen:
q
q
q q
u c + = (8.17a)
q
q
q
q
N
u c + =
+
2
(8.17b)
siendo

=
=
1
2
0
2
2
) (
N
p
pq
p q
u f y

=
+
=
1
2
0
2
1 2
) (
N
p
pq
p q
u f transformadas con 2 / N puntos.
Ntese que
2 /
2
2
N
i
e u

= , expresin anloga a la de u pero con 2 / N puntos.


Las
q
y
q
se pueden a su vez obtener dividiendo cada sumatoria en dos partes. Si
m
N 2 = , el mismo procedimiento puede sucesivamente repetirse hasta tener sumatorias
con un solo punto.
En la tabla siguiente se muestran los sucesivos reagrupamientos de los valores
n
f que
se haran para el caso particular 16 = N :
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 7
1 FFT
= N 16
2 FFT
= N 8
4 FFT
= N 4
8 FFT
= N 2
16 FFT
= N 1

0000 0 0 0 0 0 0000
0001 1 2 4 8 8 1000
0010 2 4 8 4 4 0100
0011 3 6 12 12 12 1100
0100 4 8 2 2 2 0010
0101 5 10 6 10 10 1010
0110 6 12 10 6 6 0110
0111 7 14 14 14 14 1110
1000 8 1 1 1 1 0001
1001 9 3 5 9 9 1001
1010 10 5 9 5 5 0101
1011 11 7 13 13 13 1101
1100 12 9 3 3 3 0011
1101 13 11 7 11 11 1011
1110 14 13 11 7 7 0111
1111 15 15 15 15 15 1111
Se indica adems, a la izquierda, el nmero de orden original en un sistema de base 2.
A la derecha se observa que, al reagrupar los valores de la funcin, cada uno de estos
intercambia posicin con aquel que corresponde a los bits en orden inverso.
La sucesiva subdivisin de los grupos en dos de la mitad de tamao termina cuando
1 = N y se tiene 1
2
=
i
e

; entonces los valores
q
y
q
resultan iguales a los de las
correspondientes
n
f . Luego se usan expresiones como la (8.17) para obtener 2 / N
FFT con dos puntos:
= =

1
2 / 2 i
e u


0 0 0
+ = c

0 0 1
= c
Y luego 4 / N FFT con cuatro puntos:
= =

i e u
i 4 / 2

0 0 0
+ = c

0 0 2
= c

1 1 1
i c =

1 1 3
i c m =
Y as sucesivamente hasta combinar los resultados de 2 FFT con 2 / N puntos para
producir la FFT con N puntos.
8.5 Algunas consideraciones prcticas
Para una funcin no peridica, como podra ser el registro de una componente de
aceleracin ssmica, estrictamente no podra emplearse el algoritmo FFT, puesto que se
obtienen los coeficientes de una serie de Fourier y no propiamente la transformada. Sin
embargo, puede considerarse a la funcin como si fuera peridica agregndole
suficientes ceros como para asegurar que, dada la disipacin existente en todos los
sistemas reales, no haya influencia significativa de un perodo sobre el siguiente.
H. Scaletti - Mtodos Numricos: Transformadas de Fourier Discretas 8 - 8
En la figura se ilustra esta idea:
-200
-100
0
100
200
0 20 40 60 80 100 120 140 160
t
f (t)

Un aspecto importante es definir a que frecuencia
j
corresponde cada uno de los
coeficientes
j
c . Siendo el perodo t N T = se tiene T / 2
1
= = y por lo tanto
) /( 2 t N j
j
= .
La mxima frecuencia que se representa correctamente (denominada de Nyquist)
depende del intervalo t al que se registra la funcin f y resulta 2 / ) / 2 ( t
mx
= .
Las componentes a frecuencias ms altas se interpretan como si correspondieran a
frecuencias incorrectas (alias).
0.0E+00
1.0E-05
2.0E-05
3.0E-05
4.0E-05
0 20 40 60 80

|F( )|

Potrebbero piacerti anche