Sei sulla pagina 1di 41

CURSO DE MÉTODOS NUMÉRICOS

Por: Ramiro Puch Terán


INTRODUCCIÓN
 Métodos numéricos  Resolución Probl. Matemát.  Oper. Aritm.
 MODELO MATEMÁTICO SIMPLE
 Formulación / ecuación  características esenciales  sistema físico / proceso  términos matemáticos
 Variable dependiente = f (variables independientes, parámetros, funciones de fuerza)
 Proceso de solución de problemas en ingeniería

Definición
del problema

TEORIA
Modelo DATOS
matemático
Herramientas para resolver problemas: computadoras,
estadística, métodos numéricos, gráficas, etcétera.

Resultados
numéricos
o gráficos

Optimización, comunicación, interacción

Instauración

2
MÉTODOS NUMÉRICOS
INTRODUCCIÓN
EL ALGORITMO
 El Algoritmo  Representación simbólica  diagramas de flujo / seudocódigo
 Diagrama de flujo  Representación visual / gráfica  cajas o bloques y flechas
 Seudocódigo  Expresiones semejantes a las del código
 Representación lógica
 Secuencia  código debe realizarse instrucción por instrucción
 Instrucción1
 Instrucción2
 Instrucción3
 Instrucción4
 Selección  proceso para dividir el flujo del programa en ramas
IF/THEN/ELSE CASE (Selecciona o Desvía)

Alternativa doble SELECT CASE Expresión de


prueba
Alternativa simple CASE Valor1
IF condición THEN Bloque1
IF condición THEN Bloque verdadero CASE Valor2
Bloque verdadero ELSE Bloque2
CASE Valor3
ENDIF Bloque falso Bloque3
ENDIF CASE ELSE
Bloque4
END SELECT

3
MÉTODOS NUMÉRICOS
INTRODUCCIÓN
EL ALGORITMO  Representación lógica
 Repetición  instrucciones repetidamente  loops o ciclos
 L oop de interrupción  realiza repeticiones hasta que una condición lógica resulte verdadera
DOEXIT DOFOR

DO
Bloque1 DOFOR i = inicio, fin,incremento
IF condición EXIT Bloque1
Bloque2 ENDDO
ENDDO

4
MÉTODOS NUMÉRICOS
INTRODUCCIÓN
EL ALGORITMO  Representación lógica
EJEMPLO 1  Algoritmo para las raíces de la ecuación cuadrática
 Planteamiento del problema. Las raíces de una ecuación cuadrática
ax2 + bx + c = 0
 se determinan mediante la fórmula cuadrática,

 Desarrolle un algoritmo que haga lo siguiente:


 Paso 1: Pida al usuario los coeficientes a, b y c.
 Paso 2: Realice las operaciones de la fórmula cuadrática previendo todas las eventualidades
(como, por ejemplo, evitar la división entre cero y permitir raíces complejas).
 Paso 3: Dé la solución, es decir, los valores de x.
 Paso 4: Dé al usuario la opción de volver al paso 1 y repetir el proceso.

 Solución
DO
INPUT a, b, c
r1 = (-b + SQRT (b2 - 4ac))/(2a)
r2 = (-b - SQRT (b2 - 4ac))/(2a)
DISPLAY r1, r2
DISPLAY „¿Repetir? Conteste sí o no‟
INPUT respuesta
IF respuesta = „no‟ EXIT
ENDDO
5
MÉTODOS NUMÉRICOS
INTRODUCCIÓN
EL ALGORITMO  Representación lógica
EJEMPLO 1 Algoritmo para las raíces de la ecuación cuadrática

 Solución completa

DO
INPUT a, b, c
r1 = 0: r2 = 0: i1 = 0: i2 = 0
IF a = 0 THEN
IF b ≠ 0 THEN
r1 = –c/b
ELSE
DISPLAY “Solución trivial”
ENDIF
ELSE
discr = b2 – 4 * a * c
IF discr ≥ 0 THEN
r1 = (–b + Sqrt(discr))/(2 * a)
r2 = (–b – Sqrt(discr))/(2 * a)
ELSE
r1 = –b/(2 * a)
r2 = r1
i1 = Sqrt(Abs(discr))/(2 * a)
i2 = –r1
ENDIF
ENDIF
DISPLAY r1, r2, i1, i2
DISPLAY „¿Repetir? Conteste sí o no‟
INPUT respuesta
IF respuesta = „no‟ EXIT
ENDDO

6
MÉTODOS NUMÉRICOS
INTRODUCCIÓN
LA PRESENCIA DE ERROR
 Definiciones de error 
 Error verdadero  Et = valor verdadero – valor aproximado

 Error relativo porcentual verdadero  εt = valor verdadero – valor aproximado *100%


valor verdadero

 Error relativo porcentual aproximado  εa = aproximación presente – aproximación anterior *100%


aproximación presente

 Criterio de paro  Terminar los cálculos cuando


|εa | < εs
donde εs es el error relativo porcentual deseado

Porcentaje de error deseado  número de cifras significativas


εs = (0.5 × 102–n)%
donde n = número de cifras significativas

7
MÉTODOS NUMÉRICOS
INTRODUCCIÓN
LA PRESENCIA DE ERROR
 EJEMPLO 2  Cálculo de la función exponencial con tres cifras significativas
Función exponencial

 Criterio de error  n = 3  εs = (0.5 × 102–3)%  εs = 0.05%


 Estimar el valor de e0.5
Valor real  e0.5 = 1.648721…
 SOLUCIÓN:
 Primera aproximación  e0.5 = 1 + 0.5 = 1.5
error relativo porcentual verdadero 

estimación aproximada del error 

 Puesto que no cumple  |εa | < εs  Se van agregando términos de la serie


TABLA DE APROXIMACIONES
Términos Resultado εt (%) εa (%)
1 1 39.3
2 1.5 9.02 33.3
3 1.625 1.44 7.69
4 1.645833333 0.175 1.27
5 1.648437500 0.0172 0.158
6 1.648697917 0.00142 0.0158

8
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES NO LINEALES
MÉTODO DE PUNTO FIJO
 MÉTODO DE PUNTO FIJO  fórmula para predecir la raíz  iteración simple de
punto fijo
Resolución de ecuaciones f(x) = 0  Arreglo que permita replantear  x = g(x)
 fórmula para predecir un nuevo valor de x  fórmula iterativa xi+1 = g(xi)
 error aproximado de esta ecuación 

EJEMPLO 3 Hallar la raíz de f(x) = e–x – x


SOLUCIÓN La función se puede separar directamente  xi+1 = e–xi
Empezando con un valor inicial x0 = 0  cálculo iterativo 

i xi ea (%) et (%)
0 0 100.0
1 1.000000 100.0 76.3
2 0.367879 171.8 35.1
3 0.692201 46.9 22.1

9 0.571143 1.93 0.705


10 0.564879 1.11 0.399
Convergencia  lenta
9
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES NO LINEALES
MÉTODO DE PUNTO FIJO
EJEMPLO 4 Encuentre una aproximación a una raíz real de la ecuación: cos x – 3x = 0
Es decir: f(x) = cos x – 3x
SOLUCIÓN Dos posibilidades de g(x) = x son 
(a) xi+1 = cos xi – 2xi (b) xi+1 = = cos xi /3
Empezando en (b) con un valor inicial x0 = π/8  cálculo iterativo 

i xi g(xi ) f(xi )
0 π/8 0.30796 0.25422
1 0.30796 0.31765 0.02907
2 0.31765 0.31666 0.00298
3 0.31666 0.31676 0.00031
4 0.31676 0.31675 0.00003

Convergencia  rápida

10
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES NO LINEALES
MÉTODO DE NEWTON-RAPHSON
MÉTODO DE NEWTON-RAPHSON  Aproximación trazando tangentes a la función f(x) a partir
de un punto inicial [x0 , f(x0)]
NEWTON-RAPHSON  A partir de interpretación geométrica
La primera derivada en x 

Se reduce a 

EJEMPLO 4 Utilice el método de Newton-Raphson para calcular la raíz de f(x) = e–x – x


valor inicial x0 = 0
SOLUCIÓN. La primera derivada de la función  ƒ′(x) = –e–x – 1
Sustituyendo en la ecuación 

Empezando con un valor inicial x0 = 0 


i xi et (%)
0 0 100
1 0.500000000 11.8
2 0.566311003 0.147
3 0.567143165 0.0000220
4 0.567143290 < 10–8

11
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
DEFINICIONES
SISTEMAS DE ECUACIONES LINEALES  determinación de los valores x1, x2, …, xn que
satisfacen el sistema:
f1 (x1, x2, …, xn) = 0
f2 (x1, x2, …, xn) = 0
··············
fn (x1, x2, …, xn) = 0

GENERALIZACIÓN  ecuaciones algebraicas lineales  forma general


a11x1 + a12x2 + ··· + a1nxn = b1
a21x1 + a22x2 + ··· + a2nxn = b2
··············
an1x1 + an2x2 + ··· + annxn = bn

12
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
NOTACIÓN MATRICIAL
NOTACIÓN MATRICIAL  arreglo rectangular de elementos  aij designa un elemento individual
de la matriz
Definiciones: - al conjunto horizontal de elementos se llama un renglón (o fila)
- a uno vertical, columna
- primer subíndice i  número del renglón
- segundo subíndice j  número de la columna
Matriz  n renglones y m columnas
Dimensión (o tamaño)  n × m  n = Nº de renglones, m = Nº de columnas
Representación:
a11 a12 a13 …….. a1m
a21 a22 a23 a2m
[A] = :::::
:::::
an1 an2 an3 anm

Reglas matriciales:
 [A] = [B] si aij = bij para todo i y j.
 la suma y la resta sólo pueden realizarse entre matrices que tengan las mismas dimensiones
 La suma es conmutativa  [A] + [B] = [B] + [A]
 La suma es asociativa  ([A] + [B]) + [C] = [A] + ([B] + [C])

13
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
NOTACIÓN MATRICIAL (continuación 1)
 El producto de dos matrices se representa como  [C] = [A][B]
 Condición para el producto  la primera matriz debe tener tantas columnas como el número de
renglones tiene la segunda
 Resultado  elementos de la matriz [C] 

donde n = la dimensión columnas de [A] = la dimensión renglones de [B]


Ejemplo: si [A]nm y [B]mp  [C]np
Particularidades:
 Con dimensiones adecuadas  producto de matrices asociativa  ([A][B])[C] = [A]([B][C])
 Producto de matrices distributiva  [A]([B] + [C]) = [A][B] + [A][C]
 Generalmente NO conmutativa  [A][B] ≠ [B][A]
 Si una matriz [A] es cuadrada y no singular, existe otra matriz [A]–1, llamada la inversa de [A],
para la cual
[A][A]–1 = [A]–1[A] = [I]
Donde [I] es la Matriz Identidad  Ej:
1 0 0
[I] = 0 1 0
0 0 1

14
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
NOTACIÓN MATRICIAL (continuación 2)
 Inversa de una matriz cuadrada bidimensional
a11 a12 a22 -a12
[A] = [A]-1 =
a21 a22 -a21 a11

 Representación de ecuaciones algebraicas lineales en forma matricial  Dado el


sistema:
a11x1 + a12x2 + ··· + a1nxn = b1
a21x1 + a22x2 + ··· + a2nxn = b2
··············
an1x1 + an2x2 + ··· + annxn = bn
 La forma matricial se representa como  [A]{X} = {B}
 {B} es el vector columna n x 1 de las constantes  {B}T = { b1 b2 ··· bn}
 {X} es el vector columna n x 1 de las incógnitas  {X}T = { x1 x2 ··· xn
 Por tanto: a11 a12 a13 …….. a1n
a21 a22 a23 a2n
:::::
:::::  SOLUCIÓN [A]–1[A]{X} = [A]–1{B}
an1 an2 an3 ann  {X} = [A]–1{B}
15
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN
 MÉTODO DE ELIMINACIÓN
 Eliminación de incógnitas  combinación de ecuaciones
a11x1 + a12x2 = b1
a21x1 + a22x2 = b2
 Solución  multiplicar las ecuaciones por constantes
a11 a21x1 + a12 a21x2 = b1a21
a21 a11 x1 + a22 a11 x2 = b2 a11
 Realizar una resta de ecuaciones  a11 a22 x2 - a12 a21x2 = b2 a11 - b1a21
 Despejando x2

 Sustituyendo y despejando x1

 Resultado que se obtiene también por la Regla de Cramer

16
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN (continuación 1)
 EJEMPLO 4 Resolución por eliminación
3x1 + 2x2 = 18 (1)
–x1 + 2x2 = 2 (2)
Solución:

Planteamiento del Algoritmo  Práctica

17
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN DE GAUSS
 MÉTODO DE ELIMINACIÓN DE GAUSS  algoritmo para eliminar incógnitas y
sustituir hacia atrás
Dado el sistema:
a11x1 + a12x2 + ··· + a1nxn = b1 (G.1)
a21x1 + a22x2 + ··· + a2nxn = b2 (G.2)
··············
an1x1 + an2x2 + ··· + annxn = bn (G.n)
Procedimiento Reducir el conjunto de ecuaciones a un sistema triangular superior
 Paso 1  eliminar la primera incógnita, x1  a partir de la ecuación (G.2)
 multiplicar la ecuación (G.1) por a21/a11
 restar la ecuación (G.2) de la G.1
 obtener un nuevo grupo de coeficientes a’ij en la ecuación (G.2)
a′22 x2 + .......... + a′ 2n x2 = b′2  nótese que el término a21x1 se elimina
 Paso 2  realizar el mismo procedimiento con las siguientes ecuaciones
 Paso 3  obtener un nuevo sistema modificado
 a11x1 + a12x2 + a13x3 + ··· + a1nxn = b1
a′22x2 + a′23x3 + ··· + a′2nxn = b′2
a′32x2 + a′33x3 + ··· + a′3nxn = b′3
 ··
a′n2x2 + a′n3x3 + · · · + a′nnxn = b′n
18
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN DE GAUSS (continuación 1)
 Paso 4  el procedimiento continúa hasta eliminar el término xn-1 en la modificación n-1
 a11x1 + a12x2 + a13x3 + ··· + a1nxn = b1
a′22x2 + a′23x3 + ··· + a′2nxn = b′2
a”33x3 + ··· + a”3nxn = b”3
 ··
 + a(n-1)nnxn = b(n-1)n
 Paso 5  Sustitución hacia atrás  despejar xn de la última ecuación

 Paso 6  continuar las sustituciones y despejes de los términos xi hasta llegar a x1

19
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN DE GAUSS (continuación 2)
 Algoritmo  Seudocódigo
 variable temporal sum para acumular la sumatoria
Eliminación hacia adelante
 a) DOFOR k = 1, n — 1
DOFOR i = k + 1, n
factor = ai,k / ak,k
DOFOR j = k + 1 to n
ai,j = ai,j — factor · ak,j
END DO
bi = bi — factor · bk
END DO
 END DO
Sustitución hacia atrás
 b) xn = bn / an,n
DOFOR i = n — 1, 1, —1
sum = bi
DOFOR j = i + 1, n
sum = sum – ai,j · xj
END DO
xi = sum / ai,i
END DO

20
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN DE GAUSS - JORDAN
 MÉTODO DE ELIMINACIÓN DE GAUSS - JORDAN  algoritmo para eliminar incógnitas y
normalizar los coeficientes de la diagonal principal
 Todos los renglones se normalizan al dividirlos entre su elemento pivote
 Eliminación hasta obtener la matriz identidad
Dado el sistema:
a11x1 + a12x2 + ··· + a1nxn = b1 (G.1)
a21x1 + a22x2 + ··· + a2nxn = b2 (G.2)
··············
an1x1 + an2x2 + ··· + annxn = bn (G.n)
Procedimiento  Operar sobre la matriz aumentada  Reducir la matriz a una matriz identidad

a 1 1 a 12 a13 …….. a1n 1 0 0 …….. 0 b’1


a 2 1 a 22 a23 a2n 0 1 0 0 b’2
::::: ::::: ::::
::::: :::::
a n 1 a n2 an3 ann 0 0 0 1 b’n

Las constantes bi  n transformaciones hasta convertirse en b’i  solución del sistema


 x1 = b’1 , x2 = b’2 ……., xn = b’n

21
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN DE GAUSS – JORDAN (Continuación)
 EJEMPLO 5 Resolución por eliminación  sistema a resolver:
3x1 - 0.1x2 - 0.2x3 = 7.85 (1)
0.1x1 + 7x2 - 0.3x3 = - 19.3 (2)
0.3x1 - 0.2x2 + 10x3 = 71.4 (3)
Solución: expresar la matriz aumentada como se muestra:
3 - 0.1 - 0.2 7.85
0.1 7 - 0.3 - 19.3
0.3 - 0.2 10 71.4
 Normalizar primer renglón: Eliminar x1 del 2do y 3er renglones:
1 - 0.0333333 - 0.066667 2.61667 1 - 0.033333 - 0.066667 2.61667
0.1 7 - 0.3 - 19.3 0 7.00333 - 0.29333 - 19.5617
0.3 - 0.2 10 71.4 0 - 0.19000 10.0200 70.6150

Normalizar 2do renglón: Reducir x2 de los renglones 1ro y 3er:


1 - 0.033333 - 0.066667 2.61667 1 0 - 0.068062 2.52356
0 1 - 0.041884 - 2.79320 0 1 - 0.041884 - 2.79320
0 - 0.19000 10.0200 70.6150 0 0 10.01200 70.0843

22
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE ELIMINACIÓN DE GAUSS – JORDAN (Continuación)
 EJEMPLO 5 (continuación)  sistema reducido:
Normalizar 3er renglón para x3 : x3 se elimina en los renglones 1ro y 2do:
1 0 - 0.068062 2.52356 1 0 0 3.00000
0 1 - 0.041884 - 2.79320 0 1 0 - 2.50001
0 0 1 7.00003 0 0 1 7.00003

Por tanto  x1 = 3.00000 x2 = - 2.50001 x3 = 7.00003

23
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE DESCOMPOSICIÓN LU
 MÉTODO DE DESCOMPOSICIÓN LU  algoritmo basado en la descomposición
de la matriz de coeficientes [A]  [U] y [L]
Dado el sistema:
a11x1 + a12x2 + ··· + a1nxn = b1 (LU.1)
a21x1 + a22x2 + ··· + a2nxn = b2
··············
an1x1 + an2x2 + ··· + annxn = bn
Representación  [A] {X} = {B}  solución  {X} = [A]-1{B}
Podemos re-escribir la anterior ecuación  [A] {X} - {B} = 0 (LU.2)
Supongamos que puede realizarse la transformación  similar a la reducción de Gauss, que sea
igual a (LU.2) o sea:
(LU.3)
=

Esta expresión matricial puede reordenarse de la forma  [U] {X} – {D} = 0 (LU.4)

24
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE DESCOMPOSICIÓN LU (Continuación 1)
Supongamos que existe una matriz diagonal inferior [L] :

 que tiene la propiedad de que cuando se premultiplica por (LU.4) da como


resultado [A]{X} – {B}
Es decir  [L] {[U]{X} – {D}} = [A]{X} – {B}
Si esta ecuación es cierta  [L][U] = [A] y [L]{D} = {B}
Aplicando la eliminación de Gauss en el sistema (LU.1) 

[U] =

la matriz [L] se produce durante este proceso

 Gauss 1er paso   elimina en el 2do renglón

 Gauss 2do paso   elimina en el 3er renglón


25
MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE DESCOMPOSICIÓN LU (Continuación 3)
 Gauss 3er paso   elimina en el 3er renglón (matriz con 1ª modificación
 luego de la eliminación podemos reescribir la matriz [A] 

almacenamiento eficiente de la descomposición LU  [A] → [L][U]

Donde:

[U] = [L] =

Seudocódigo  subrutina fase de descomposición:


 SUB Decompose (a, n)
DOFOR k = 1, n – 1
DOFOR i = k + 1, n
factor = ai,k /ak,k
ai,k = factor
DOFOR j = k + 1, n
ai,j = ai,j - factor * ak,j
END DO
END DO
END DO
END Decompose

26 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE DESCOMPOSICIÓN LU (Continuación 4)
Conclusión  luego de la descomposición [A] → [L][U]  solución para un vector particular {B}
 [L]{D} = {B}  sustitución hacia adelante obteniendo di sin alterar los bi
 finalmente la sustitución hacia atrás utilizando los coeficientes di  xn = dn/ann
EJEMPLO 6 Resolución del sistema anterior:
3x1 - 0.1x2 - 0.2x3 = 7.85 (1)
0.1x1 + 7x2 - 0.3x3 = - 19.3 (2)
0.3x1 - 0.2x2 + 10x3 = 71.4 (3)
Empezamos por obtener [U] (del ejemplo 5)
3 - 0.1 - 0.2 3 - 0.1 - 0.2 x1 7.85
[U] = 0 7.00333 0.293333  0 7.00333 0.293333 x2 = -19.5617
0 0 10.0120 0 0 10.0120 x3 70.0843
Para la sustitución hacia adelante:

1 0 0 1 0 0 d1 7.85
[L] = 0.0333333 1 0  0.0333333 1 0 d2 = -19.3
0.100000 -0.027130 1 0.100000 -0.027130 1 d3 71.4

27 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE DESCOMPOSICIÓN LU (Continuación 5)
Resolviendo para di igualando,
d1 = 7.85
0.0333333d1 + d2 = –19.3
0.1d1 – 0.02713d2 + d3 = 71.4
Obtenemos entonces [D] y reemplazamos en (LU.3)
De donde:
3 -0.1 -0.2 x1 7.85
=  0 7.0333 -0.29333 x2 = -19.5617
0 0 10.0120 x3 70.0843
Resultando finalmente:

3
[X] = -2.5
7.00003

28 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE DESCOMPOSICIÓN LU (Continuación 6)
Seudocódigo de una subrutina para implementar ambas fases de sustitución
 SUB Substitute (a, n, b, x)
‘sustitución hacia adelante
DOFOR i = 2, n
sum = bi
DOFOR j = 1, i – 1
sum = sum – ai,j * bj
END DO
bi = sum
END DO
 ‘sustitución hacia atrás
xn = bn /an,n
DOFOR i = n – 1, 1, –1
sum = 0
DOFOR j = i + 1, n
sum = sum + ai,j * xj
END DO
xi = (bi – sum)/ai,i
END D0
END Substitute

29 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE GAUSS-SEIDEL
 MÉTODO DE GAUSS-SEIDEL  métodos iterativos  suponer un valor (valor inicial)  iterar 
aproximación de la raiz
Sea un sistema  [A]{X} = {B}
Partiendo de un sistema de 3 ecuaciones  diagonal ≠ 0  existen los coeficientes aii

La primera ecuación puede resolver para x1, la segunda para x2 y la tercera para x3

Suposición inicial  x2 = 0 y x3 = 0  sustituir en x1  este valor sustituir en x2 con x3 = 0  los


nuevos valores sustituir en x3 (primera iteración)
Los nuevos valores de x2 y x3 se reemplazan en x1  se inicia otro proceso iterativo  converger
hacia las raices del sistema
 Verificación de la convergencia  error relativo porcentual

30 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE GAUSS-SEIDEL (Continuación 1)
EJEMPLO 7 Resolución del sistema del ejemplo 5:
3x1 - 0.1x2 - 0.2x3 = 7.85 (1)
0.1x1 + 7x2 - 0.3x3 = - 19.3 (2)
0.3x1 - 0.2x2 + 10x3 = 71.4 (3)
Recordando que la solución es: x1 = 3, x2 = –2.5 y x3 = 7
Representando las ecuaciones solución para x1, x2 y x3

Suponiendo x2 y x3 iguales a 0 

Aplicando este resultado y x3 = 0 

Luego sustituyendo x1, y x2 en x3 

31 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE GAUSS-SEIDEL (Continuación 2)
EJEMPLO 7 (continuación):
En la segunda iteración se repite el proceso  dando el siguiente resultado:
|ɛt| = 0.31%

|ɛt| = 0.015%

|ɛt| = 0.0042%

Método  convergente, sin embargo la convergencia debe evaluarse utilizando:

Para x1 

Para x2 y x3, los errores estimados son |ɛa,2| = 11.8% y |ɛa,3| = 0.076%.

32 MÉTODOS NUMÉRICOS
RESOLUCIÓN DE ECUACIONES LINEALES
MÉTODO DE GAUSS-SEIDEL (Continuación 3)
Algoritmo para el método de Gauss-Seidel  dos características:
1. Existe un conjunto inicial de ciclos anidados para dividir cada ecuación por su elemento diagonal
2. La verificación del error se designa por una variable llamada centinela (sentinel)
SUBROUTINE Gseid (a, b, n, x, imax, es, lambda) DOFOR
DOFOR i = 1,n centinela = 1
dummy = ai,i DOFOR i = 1,n
DOFOR j = 1,n old = xi
ai,j = ai,j/dummy sum = bi
END DO DOFOR j = 1,n
bi = bi/dummy IF i≠j THEN sum = sum – ai,j*xj
END DO END DO
DOFOR i = 1, n xi = lambda*sum +(1.–lambda)*old
sum = bi IF centinela = 1 AND xi ≠ 0. THEN
DOFOR j = 1, n ea = ABS((xi – old)/xi)*100.
IF i≠j THEN sum = sum – ai,j*xj IF ea > es THEN centinela = 0
END DO END lF
xi=sum END DO
END DO iter = iter + 1
iter=1 IF centinela = 1 OR (iter ≥ imax) EXIT
END DO
END Gseid

33 MÉTODOS NUMÉRICOS
DIFERENCIAS FINITAS
DIFERENCIAS FINITAS
 Definiciones Dada la función  y = f(x) que puede discretizarse a la forma yi = f(xi)
se definen tres tipos de diferencias finitas  siendo h = constante
1. Diferencia progresiva  ∆f(x) = f(x+h) - f(x)  ∆y
2. Diferencia regresiva  ▼f(x)= f(x) - f(x-h)  ▼y
3. Diferencia central  ◊(f)(x) = f(x+ ½h) - f(x - ½ h)  ◊y
 Para la forma discreta tenemos
a) Diferencia progresiva  ∆yk = f(xk + h) - f(xk) = f(xk+1) - f(xk) = yk+1 - yk = ∆1yk  1er orden
Órdenes superiores  ∆2yk = ∆(∆(yk)) = ∆(yk+1 - yk) = ∆yk+1 - ∆yk  2do orden
o sea: ∆2yk = ∆(yk+1 - yk ) = ∆yk+1 - ∆yk = yk+2 – yk+1 - (yk+1 – yk) =
= yk+2 – 2yk+1 + yk
b) Diferencia regresiva  ▼yk = f(xk) - f(xk – h) = f(xk) - f(xk-1) = yk – yk-1 = ▼1yk  1er orden
Órdenes superiores  ▼2yk = ▼(▼(yk)) = ▼(yk – yk-1) = ▼yk - ▼yk-1  2do orden
o sea: ▼2yk = ▼(yk – yk-1 ) = ▼yk - ∆yk-1 = yk – yk-1 - (yk-1 – yk-2) =
= yk – 2yk-1 + yk-2
si obtenemos ▼2yk+2  ▼2yk+2 = yk+2 – 2yk+1 + yk  se comprueba:
∆2yk = ▼2yk+2
en general se cumple  ∆myk = ▼myk+m

34 MÉTODOS NUMÉRICOS
DIFERENCIAS FINITAS
DIFERENCIAS FINITAS (continuación 1)
 Particularidades:
Términos base  ∆0yk = yk , ▼0yk = yk
Términos mésimos  ∆myk = ∆ (∆m-1yk ), ▼myk = ▼(▼m-1yk )
Equivalencia  ∆myk = ▼myk+m
Expresión del término nésimo 

Tabla de diferencias finitas (Diferencias progresivas)


x y ∆y ∆𝟐 y ∆𝟑 y ∆𝟒 y ∆𝟓 y ∆𝟔 y
x0 y0
∆y0
x1 y1 ∆2 y0
∆y1 ∆3 y0
x2 y2 ∆2 y1 ∆4 y0
∆y2 ∆3 y1 ∆5 y0
2 4
x3 y3 ∆ y2 ∆ y1 ∆6 y0
∆y3 ∆3 y2 ∆5 y1
2 4
x4 y4 ∆ y3 ∆ y2
3
∆y4 ∆ y3
2
x5 y5 ∆ y4
∆y5
x6 Y6

35 MÉTODOS NUMÉRICOS
DIFERENCIAS FINITAS
DIFERENCIAS FINITAS (continuación 3)
 Fórmula de NEWTON en diferencias finitas progresivas:
Partimos de las siguientes definiciones:
 xi+1 – xi = h  h = constante para todo i  xi+1 = xi + h, en consecuencia
  xi = x0 + i*h, con i = 0, 1, 2, ……, n
 Forma general de los polinomios de interpolación de Newton
 fn(x) = b0 + b1(x – x0) + · · · + bn(x – x0)(x – x1)· · ·(x – xn–1)  para n+1 puntos
 Es decir [x0, f(x0)], [x1, f(x1)],..., [xn, f(xn)]
 Usamos las siguientes ecuaciones para hallar los coeficientes bi
 b0 = f(x0)
 b1 = f[x1, x0]
 b2 = f[x2, x1, x0]
 ·
 ·
 ·
 bn = f[xn, xn–1, · · ·, x1, x0]
 Las funciones entre corchetes representan diferencias divididas 

36 MÉTODOS NUMÉRICOS
DIFERENCIAS FINITAS
DIFERENCIAS FINITAS (continuación 3)
 Polinomio de interpolación en diferencias divididas:
pn(x) = f[x0] + f[x0 , x1](x - x0) + f[x0 , x1 , x2] (x - x0) (x – x1) +…. + f[x0 , x1 , x2 …, xn] (x - x0) (x – x1) ..(x – xn-1)
Aplicando las diferencias finitas:

Reordenando la ecuación  introduciendo el cambio:

Obtenemos:

Sintetizando:

37 MÉTODOS NUMÉRICOS
INTERPOLACIÓN POLINÓMICA
OPERADORES DE DIFERENCIA
 OPERADORES DE DIFERENCIA  Dada una función de variable independiente discreta f(xk)
xk f(xk)
x0 f(x0)
x1 f(x1)
x2 f(x2)
x3 f(x3)
……
xn f(xn)
Definimos las Diferencias Divididas de f(xk)  D1f(xk…), D2f(xk…), D3f(xk…),……, Dnf(xk…)
1er orden 

2do orden 

nmo orden 

Estas diferencias sirven para evaluar los coeficientes bi en la ecuación polinomial:


fn(x) = b0 + b1(x – x0) + · · · + bn(x – x0)(x – x1)· · ·(x – xn–1)

38 MÉTODOS NUMÉRICOS
INTERPOLACIÓN POLINÓMICA
OPERADORES DE DIFERENCIA (Continuación 1)
 TABLA DE DIFERENCIAS DIVIDIDAS
 xk f(xk) D D2 D3
 x0 f(x0)
 f(x0, x1)
 x1 f(x1) f(x0, x1, x2)
 f(x1, x2) f(x0, x1, x2, x3)
 x2 f(x2) f(x1, x2, x3)
 f(x2, x3)
 x3 f(x3)

 EJEMPLO 8 Dada la función generatriz f(x) = x3, y la serie de valores de entrada x (con intervalos de
muestreo: x = 0, 1, 3, 4, 7, 9  Realizar una tabla de valores hasta la 4ta diferencia:

 SOLUCIÓN  Aplicando la fórmula de obtención de la iésima diferencia finita, o sea:

39 MÉTODOS NUMÉRICOS
INTERPOLACIÓN POLINÓMICA
OPERADORES DE DIFERENCIA (Continuación 2)
 EJEMPLO 8 (continuación) Realizando las operaciones:

 xk f(xk) D D2 D3 D4
 x0 = 0 f(x0)= 0
 1
 x1= 1 f(x1)= 1 4
 13 1
 x2= 3 f(x2)= 9 8 0
 37 1
 x3= 4 f(x3)= 64 14 0
 93 1
 x4= 7 f(x3)= 343 20
 193
 X5= 9 f(x3)= 729

40 MÉTODOS NUMÉRICOS
INTERPOLACIÓN POLINÓMICA
OPERADORES DE DIFERENCIA (Continuación 3)
 Definiciones del Operador Δ  f(xi)
1. Δf(xk) = f(xk+1) - f(xk)  Δfk == fk+1 - fk (Primera Diferencia)
2. Δ [Δ f(xk)] = Δ [f(xk+1) - f(xk)] = Δf(xk+1) - Δf(xk)  Δ2fk == Δ fk+1 - Δ fk (Segunda Diferencia)
3. Enésimas Diferencias de f  Δnfk = Δ[Δn-1fk] = Δn-1fk+1 - Δn-1fk
Propiedades del Operador Δ
 a) Δ(fk ± gk) = Δ(fk) ± Δ(gk)
 b) Δ(C.fk) = C.Δ(fk)
 c) Δm(Δn fk) = Δm+n fk  n,m enteros
 Operador Incremental E:
 E(f k) = E f(x k) = f(xk+h) = f(xk+1) = fk+1  h = xk+1 - xk
 E [E f(x k)] = E2 f(x k) = fk+2 = f(xk+2h)
 Equivalencias entre los Operadores Δ y E:
 Dos operadores operacionalmente equivalentes  misma función  mismo resultado.
 Δ f k = fk+1 - f k
 E f(x k) = f(x k+h) = fk+1, con h=1
 Δ f k = E f k - f k = (E-1) f k => Δ = (E-1)

41 MÉTODOS NUMÉRICOS