Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sistemas Lineales
Sistemas Lineales
ANALISIS NUMERICO
Consideremos uns sistema de ecuaciones lineales del tipo AX=B; A matriz de elementos:
X, B R n .
Los métodos que permiten resolver un sistema de ecuaciones lineales por medio del
computador se clasifican en dos grandes grupos:
Método de crout
LY=B (5)
UX=Y (6)
Conocidas las matrices L y U se resuelve en primer lugar el sistema triangular (5) con
respecto a Y y acontinuación el sistema triangular (6) con respecto a X.
Para calcular los elementos del 2do renglon de U se multiplica el 2do renglon de L por la
3ra columna de U, la 4ta columna y n'sima columna, se obtiene:
u2 j
1
a2 j l21u1 j ; j=3,4,...,n (10)
l22
m 1
1
u mj amj lmk u kj ; m=1,2,...,n-1 ; j=m+1,...n ; m<j (12)
lmm k m
o k 1
Del cálculo anterior se observa que los elementos de las matrices L y U se calculan
mediante el procedimeinto algebraico formado, es decir, 1ro se calcula la 1ra columna de
L, después el 1er renglon de U, enseguida 2da columna de L, etc.
Observaciones.
AT A
<AX,X>>0 ; X R n
det( A I )=0
3x1 2 x2 x3 10 3 2 1
x1 3x2 2 x3 13 ; en forma matricial: 1 3 2 ; (13)
4 x1 5x2 6 x3 32 4 5 6
4
3 0 0 1 2 / 3 1 / 3 1
L= 1 7 / 3 0 ; U= 0 1 5 / 7 ; la solución esX= 2
(14)
4 7 / 3 3 0 0 1 3
Un caso particular del método de Crout es el algoritmo de Choleski y que se utiliza para
resolver sistema de ecuaciones lineales del tipo AX=B, si la matriz A es simétrica y
definida positiva. La matriz es simétrica si AT A y es definida positiva. Si el producto
interior <AX,X>>0 , X R n .
l11 0 . 0
l l 0
L= 21 22 (15)
.
l n1 l nn
Procediendo de una manera análoga a lo visto para el método de Crout, los elementos de la
matriz L se obtienen multiplicando L por su transpuesta e identificándolos a los homólogos
de la matriz A, realizando los cálculos se tiene:
l11 a11
m1
lii aii lik2 ; i=1,2,...,n (16)
k 1
1 j 1
lij ij lik l jk
a ; i>j (17)
l jj k 1
( LLT ) X B ; L( LT X ) B (18)
LY=B (19)
LT X Y (20)
Problema
5
Deducir el algoritmo de Choleski para un sistema de 3 ecuaciones con 3 incógnitas, esto es,
AX=B; n=3 y con las fórmulas obtenidas resolver el siguiente sistema y verificar
previamente si satisface las condiciones exigidas:
3x1 2 x2 x3 4 3 2 1
2 x1 4 x2 x3 13 ; en forma matricial: 2 4 1 ; (21)
x1 x2 5x3 16 1 1 5
Observaciones
Para estudiar el carácter de definida positiva de una matriz, se aplican para los efectos
prácticos los siguientes criterios, que son resultados de los teoremas del álgebra lineal.
i) Una matriz A R nxn es definida positiva, si todos los valores propios son positivos
i 0, con i=1,2,3...,n.
ii) Una matriz A es definida positiva, si los determinantes de las submatrices de orden 1, de
orden 2 y de orden n son todos positivos.
AT AX AT B (23)
X Rn
Al resolver el sistema de ecuaciones lineales de tipo AX=B por medio del computador, se
obtiene una aproximación X A y por lo tanto A X A -B=R, siendo R= residuo. Para una
solución exacta o verdadera X V se obtiene:
XV X A
er (25)
XA
R
r (26)
XA
AX
A max (27)
x 0 X
AX
designemos C ( x ) ; entonces A max C( x ) . Ahora veamos cuanto vale el
X x 0
mínimo de X.
1 1 1
min C ( x ) (28)
max
1 X A 1 B
max max
C( x) x 0AX B
1
min C ( x ) (29)
A1
Donde,
7
A max C ( x)
x 0
AX
C ( x) 1 (30)
X A1
1
( A) ; 0 ( A) 1 (31)
A A1
1
( A) A A1 ; 1 ( A) (32)
( A)
1
C( x) A (33)
A1
Observaciones.
min ( A)
( A) ; (A) = i (34)
( A)
A ( AT A) ( A2 ) 2 ( A) ( A) (35)
8
Por otra parte, se sabe también de que los valores propios de la inversa de una matriz son
iguales a los recíprocos de los valores propios de A, es decir:
1 1 min ( A)
( A) (36)
A A1 ( A)
1 ( A)
min ( A)
A( X X ) B B
AX A X B B
(37)
A X ) B
X A 1B
X A
A A1 (38)
X X A
Es decir, la cota depende del número de condición ( A) y del error relativo de la matriz de
coeficientes A del sistema AX=B. Se puede observarse igual que el caso anterior, si ( A)
es muy grande (es decir, el sistema esta mal condicionado), entonces, el error relativo de la
solución puede asumir valores grandes, a pesar de las pequeñas perturbaciones que pueden
sufrir la matriz A.
X A A 1
(39)
X 1 A
1 A A
A
Ejemplo.
x1 10 x2 12 1 10 101 10
; A , A -1 (40)
10 x1 101x2 121 10 101 10 1
A R
111
Haciendo suma por renglones se tiene:
A 1 111
1 1
( A) 1
0. 0000811 (41)
A A 1112
x1 2
(42)
x2 1
Perturbando :
x1 10. 2 x2 12 1 10.2
A (43)
10. 2 x1 99 x2 121 10.2 99
9.04
Pequeñas variaciones generan grandes variaciones, la solución es: X .
0.29
Para resolver sistemas de gran tamaño; n>100, 5000, los métodos directos no son
eficientes, preferiéndose por lo tanto los métodos iterativos.
Dado un sistema de ecuaciones lineales del tipo AX=B; y dado un vector solución
aproximada Xo, los métodos iterativos consisten en construir una sucesión de vectores
aproximados X k por medio de un algoritmo:
X k 1 F ( X k ) ; k=0,1,2,.. (44)
AX k B Rk (45)
AX * B 0
AX k B Rk
(46)
A( X k X * ) Rk
( X k X * ) A1 Rk (47)
X k 1 X k C , k=0,1,2,.. (48)
X k 1 X k C
Analizaremos acontinuación las caracterticas que debe poseer para que la sucesión de
vectores aproximados Vk V llegue a una sucesión de vectores solución exacta, X * .
Esto se puede verificar haciendo:
X k 1 X k C
(49)
X * X * C
----------------------
X k 1 X * ( X o X * ) ; k=0,1,2,..
Ahora haciendo:
11
X 1 X * ( X o X * )
X 2 X * 2 ( X1 X * )
. . . . . .
(50)
. . . . . .
X k 1 X * ( X k X * )
---------------------------------------------
X k 1 X * k 1 ( X o X * )
lim X k 1 X *
k
lim( X k 1 X * ) 0 (51)
k
lim k 1 0
k
Para que el k 1 ; k se sabe de álgebra lineal que esto sucede, siempre que el radio
espectral de la matriz sea estrictamente < 1. Pero también del álgebra lineal se sabe que
() cualquiera que sea y que por tanto, la convergencia de los métodos iterativos
quede asegurada siempre que:
1 (52)
Método de Gauss-Seidel.
1 i 1 n
X ik 1 i aij X j a
k 1
b ij X kj con i=1,2,….,n
aii j 1 j i 1
Para calcular la incognita ¡Error! Marcador no definido. de la iteración del orden k+1 se
aprovechan los valores de las incógnitas anteriores correspondientes a la iteración k+1.
EX k 1 FX k B
X k 1 E 1 FX k E 1 B
E 1 F
Xo
36 x1 6 x2 12 x3 12
6 x1 17 x2 14 x3 2
12 x1 14 x2 38x3 74
1
x1 (12 6 x2 12 x3 )
36
1
x2 (2 6 x1 14 x3 )
17
1
x3 (74 12 x1 14 x2 )
38
Con X o [0,0,0]
Primera iteración:
1 1
x1 (12 6 x2 12 x3 ) (12 6 x0 12 x0) 0.33
36 36
1 1
x2 (2 6 x1 14 x3 ) (2 6 x0.33 14 x0) 0.23
17 12
1 1
x3 (74 12 x1 14 x2 ) (74 12 x0.33 14 x(0.23)) 1.96
38 38
Segunda iteración:
13
1 1
x1 (12 6 x2 12 x3 ) (12 6 x(0.23) 12 x(1.96)) 1.02
36 36
1 1
x2 (2 6 x1 14 x3 ) (2 6 x1.02 14 x(1.96)) 1.13
17 12
1 1
x3 (74 12 x1 14 x2 ) (74 12 x1.02 14 x1.13) 2.69
38 38
Tercera iteración:
1 1
x1 (12 6 x2 12 x3 ) (12 6 x1.13 12 x(2.69)) 1.04
36 36
1 1
x2 (2 6 x1 14 x3 ) (2 6 x1.04 14 x(2.69)) 1.73
17 12
1 1
x3 (74 12 x1 14 x2 ) (74 12 x1.04 14 x1.73) 2.91
38 38
Cuarta iteración:
1 1
x1 (12 6 x2 12 x3 ) (12 6 x1.73 12 x(2.91)) 1.01
36 36
1 1
x2 (2 6 x1 14 x3 ) (2 6 x1.01 14 x(2.91)) 1.92
17 12
1 1
x3 (74 12 x1 14 x2 ) (74 12 x1.01 14 x1.92) 2.97
38 38
Quinta iteración:
1 1
x1 (12 6 x2 12 x3 ) (12 6 x1.92 12 x(2.97)) 1.00
36 36
1 1
x2 (2 6 x1 14 x3 ) (2 6 x1.00 14 x(2.97)) 1.97
17 12
1 1
x3 (74 12 x1 14 x2 ) (74 12 x1.00 14 x1.97) 2.98
38 38
Quinta iteración:
1 1
x1 (12 6 x2 12 x3 ) (12 6 x1.97 12 x(2.98)) 1.00
36 36
1 1
x2 (2 6 x1 14 x3 ) (2 6 x1.00 14 x(2.98)) 1.99
17 12
1 1
x3 (74 12 x1 14 x2 ) (74 12 x1.00 14 x1.99) 2.99
38 38
14
No. Iteración X 1i X 2i X 3i
0 0 0 0
1 0.33 0.23 -1.96
2 1.02 1.13 -2.69
3 1.04 1.73 -2.91
4 1.01 1.92 -2.97
5 1.00 1.97 -2.98
6 1.00 1.99 -2.99
. . . .
. . . .
1.00 2 -3.00
( E 1 F ) 1
b) o converge si:
E 1 F 1
d) Diagonal dominante.
Entonces,
15
AX=B
EX k 1 FX k B
X k 1 E 1 FX k E 1 B , donde, k=0,1,2 a X o dado.
E 1 F
Del Algoritmo general de Gauss-Seidel se observa que las componentes X ik 1 del vector
X k 1 , se calculan por medio del algoritmo:
1 i 1 n
bi aij x j a
k 1 k 1
X i ij x kj con i=1,2,..,n y k=0,1,2
aii j 1 j i 1
AX=B
(A-D)X+DX=B
1 n
k
bi aij x j con i=1,2,..,n y k=0,1,2
k 1
X i
aii j 1
j i
Para fines prácticos, que la convergencia del método de Jacobi es más lenta que el de
Gauss-Seidel y por tanto no se utiliza mayormente.
En problemas de ingeniería suceden ciertos casos, Jacobi y Gauss-Seidel son muy lentos
para resolver sistemas de ecuaciones lineales de gran tamaño ( n 100 ), debido a esto se ha
ideado algoritmos iterativos que permiten acelerar la convergencia, entre ellos podemos
mencionar Sor (Succesive Over Relaxation), el método consiste en:
Dado el sistema AX=B, A se puede descomponer como: A=L+D+U, donde, L y U son las
tringular inferior y superior de la matriz, D es la diagonal de la matriz A. Con la
descomposición se genera el algoritmo SOR de modo siguiente:
1
D wL X k 1 1 1 wD wU X k B
w w
X k 1 D wL
1
1 wD wU X k wD wL1 B
Si w=1 se covierte en el caso particular de Gauss-Seidel. En el caso de SOR, la matriz
iterativa esta dada por:
D wL
1
1 wD wU
En lo que respecta a las componentes X ik 1 , X k 1 están dadas por:
w i 1 n
1 w
X ik 1 i aij x j a
k 1
b ij x kj aii X ik con, i=1,2,..,n, k=0,1,2
aii j 1 j i 1 w
2 1 0 0 x1 1
1 3 1 0 x 4
2
0 1 3 1 x3 7
0 0 1 2 x4 0
Resolver el sistema, utilizando el método SOR con w=1.10 y por el método de Gauss-
Seidel.