Sei sulla pagina 1di 251

Métodos Numéricos

Sergio Plaza1

Segundo semestre de 2007. Versión Preliminar en Revisión


Si el lector detecta errores, que ciertamente hay muchos,
le agradecere avisarme al e-mail: splaza@lauca.usach.cl

1
Depto. de Matemática, Facultad de Ciencias, Universidad de Santiago de Chile, Casilla 307–Correo
2. Santiago, Chile. e–mail splaza@lauca.usach.cl, Homepage http://lauca2.usach.cl/˜splaza
Contenidos

1 Teorı́a de Error 1
1.1 Representación punto flotante de números . . . . . . . . . . . . . . . . . . . . . 1
1.2 Corte y redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Precisión de la representación punto flotante . . . . . . . . . . . . . . . . 5
1.2.2 Unidad de redondeo de un computador . . . . . . . . . . . . . . . . . . . 5
1.2.3 Mayor entero positivo representable en forma exacta . . . . . . . . . . . . 6
1.2.4 Underflow–overflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Definición y fuentes de errores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Fuentes de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Pérdida de dı́gitos significativos . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Propagación de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Propagación de error en evaluación de funciones . . . . . . . . . . . . . . . . . . . 14
1.5 Errores en sumas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Estabilidad en métodos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Inestabilidad numérica de métodos . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Ecuaciones no Lineales 24
2.1 Método de bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 Análisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Análisis del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Método de Newton multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Método de la secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 Análisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Método de la posición falsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

i
ii

2.6 Métodos iterativos de punto fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


2.7 Métodos iterativos de punto fijo en varias variables . . . . . . . . . . . . . . . . . 48
2.7.1 Análisis de error para métodos iterativos de punto fijo . . . . . . . . . . . 49
2.8 Raı́ces múltiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.9 Aceleración de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.10 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.11 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.12 Uso de métodos de integración para obtener fórmulas iterativas para resolver
ecuaciones no lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.13 Otras fórmulas iterativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

3 Sistemas de Ecuaciones Lineales 96


3.1 Normas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.1.1 Normas vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2 Número de condición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3 Solución de sistemas de ecuaciones lineales: métodos directos . . . . . . . . . . . 104
3.3.1 Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Factorización de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.5 Método de eliminación gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.6 Eliminación gaussiana con pivoteo . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7 Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.8 Solución de sistemas de ecuaciones lineales: métodos iterativos . . . . . . . . . . 122
3.9 Método de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.10 Método de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.11 Método de Gauss–Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.12 Método SOR (successive overrelaxation) . . . . . . . . . . . . . . . . . . . . . . . 128
3.13 Otra forma de expresar los métodos iterativos para sistemas lineales . . . . . . . 129
3.14 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.15 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

4 Interpolación 153
4.1 Interpolación de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
4.1.1 Aproximación lineal por trozo o de grado 1 . . . . . . . . . . . . . . . . . 153
4.2 Polinomio de Lagrange de grado n . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.4 Método de las diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.5 Cálculo de diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
iii

4.6 Interpolación de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166


4.7 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

5 Derivadas Numéricas 183


5.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

6 Spline Cúbicos 189


6.1 Construcción de Spline cúbicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.2 Otra forma de construir spline cúbicos naturales . . . . . . . . . . . . . . . . . . 193
6.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

7 Ajuste de Curvas 197


7.1 Ajuste de curvas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.2 Ajuste por rectas: recta de regresión . . . . . . . . . . . . . . . . . . . . . . . . . 198
7.3 Ajuste potencial y = AxM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.4 Ajuste con curvas del tipo y = CeAx , con C > 0 . . . . . . . . . . . . . . . . . . 200
7.5 Método no lineal de los mı́nimos cuadrados para y = CeAx . . . . . . . . . . . . 201
7.6 Combinaciones lineales en mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . . 202
7.7 Ajuste polonomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

8 Integración Numérica 205


8.1 Regla de los trapecios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.3 Regla de Simpson ( 38 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.4 Fórmulas de Newton–Cotes cerradas de (n + 1) puntos . . . . . . . . . . . . . . 209
8.5 Fórmulas abiertas de Newton–Cotes . . . . . . . . . . . . . . . . . . . . . . . . . 209
8.6 Integración de Romberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.7 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
8.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217

9 Solución numérica de ecuaciones diferenciales ordinarias 221


9.1 Método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.1.1 Análisis del error para el módulo de Euler . . . . . . . . . . . . . . . . . . 223
9.2 Método de Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
9.3 Método del punto medio o método de Euler mejorado . . . . . . . . . . . . . . . 225
9.4 Métodos de Runge–Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
iv

9.4.1 Runge–Kutta de orden 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226


9.4.2 Método de Ralston . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
9.4.3 Método de Runge–Kutta de orden 3 . . . . . . . . . . . . . . . . . . . . . 227
9.4.4 Método de Runge–Kuta de orden 4 . . . . . . . . . . . . . . . . . . . . . 228
9.4.5 Método de Runge–Kuta de orden superior . . . . . . . . . . . . . . . . . . 228
9.5 Métodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
9.5.1 Método de Adams–Bashforth de dos pasos . . . . . . . . . . . . . . . . . 231
9.5.2 Método de Adams–Bashforth de 3 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.3 Método de Adams–Bashforth de 4 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.4 Método de Adams–Bashforth de 5 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.5 Método de Adams–Moulton de dos pasos . . . . . . . . . . . . . . . . . . 232
9.5.6 Método de Adams–Moulton de tres pasos . . . . . . . . . . . . . . . . . . 232
9.6 Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 232
9.7 Ecuaciones diferenciales de orden superior . . . . . . . . . . . . . . . . . . . . . 234
9.8 Problemas con valores en la frontera para ecuaciones diferenciales ordinarias . . . 235
9.8.1 Método del disparo para el problema lineal . . . . . . . . . . . . . . . . . 236
9.9 El método del disparo para el problema no lineal de valores en la frontera . . . . 238
9.9.1 Determinación de los parámetros sk . . . . . . . . . . . . . . . . . . . . . 239
9.10 Método de diferencias finitas para problemas lineales . . . . . . . . . . . . . . . . 239
9.10.1 Caso no lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
9.11 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.12 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Capı́tulo 1

Teorı́a de Error

1.1 Representación punto flotante de números


Cada x ∈ R , con x = 0 , puede ser representado de modo único en su forma normalizada

x = σ · x · 10e (1.1)

donde σ = ±1 es el signo, e ∈ Z es el exponente y 0.1  x < 1 es la mantisa de x , es decir,

x = 0.a1 a2 . . . = a1 10−1 + a2 10−2 + · · · + ak 10−k + · · · .

con a1 = 0 . En lo que sigue, siempre consideramos los números en su forma normalizada,

Ejemplo 1 1. x = 12.462 = 0.12462 × 102

2. π = 3.14159265 . . . = 0.314159265 . . . × 101



3. 3 2 = 1.2599210 . . . = 0.12599210 . . . × 101

4. e = 0.27182818 . . . × 101

5. ln(2) = 0.6931471 . . . × 100

6. x = 0.0000458 = 0.458 × 10−4

La representación decimal punto flotante de un número x ∈ R , con x = 0 , es básicamente


aquella dada en (1.1), con limitación del número de dı́gitos en la mantisa x y el tamaño del
exponente e .
Si limitamos, por ejemplo, el número de dı́gitos de x a 6 y e entre −99 y +99 , decimos que
una computadora con tal representación tiene una aritmética decimal de punto flotante de 6
dı́gitos. Como consecuencia de la limitación del número de dı́gitos de x , ningún número puede
tener más que sus seis primeros dı́gitos almacenados con precisión.
Ahora consideremos un número x en su forma binaria normalizada, podemos escribir

x = σ · x · 2e (1.2)

1
Sergio Plaza 2

donde σ = ±1 es el signo, e ∈ Z es el exponente, y la mantisa x es un número en forma


binaria con (0.1)2  x < 1 , esto es equivalente, en la forma decimal, a 12  x < 1 , es decir,

x = (0.a1 a2 . . .)2 = a1 2−1 + a2 2−2 + · · · + ak 2−k + · · ·

con a1 = 1 y ai = 0 o 1 para i  2 .

Ejemplo 2 Sea x = (1101.10111)2 . Escribiendo este en la forma canónica, tenemos

x = 23 + 22 + 20 + 2−1 + 2−3 + 2−4 + 2−5


= (2−1 + 2−2 + 2−4 + 2−5 + 2−7 + 2−8 + 2−9 ) × 24 ,

de donde tenemos que σ = +1, e = 4 = (100)2 y x = (0.110110111)2 .

La representación punto flotante de un número binario x consiste básicamente en aquella


dada en (1.2), con una restricción en el número de dı́gitos de x y en el tamaño del exponente
e.
Para no estar restrictos a números en forma decimal o binaria, trabajaremos representaciones
de números en una base β > 1 , en general, sólo consideramos el caso en que β es un número
entero positivo mayor que 1. Lo que desarrollaremos es completamente análogo a los casos bien
conocidos cuando β = 2 (representación binaria) y β = 10 (representación decimal). Usar
una base β > 1 arbitraria nos permite tratar en forma unificada conceptos y propiedades sin
referirnos cada vez a una base determinada.
Dado un número entero β > 1 , cada x ∈ R , con x = 0 , puede ser representado en la base
β de modo único en su forma normalizada como

x = σ (0.a1 a2 . . . ak . . .)β × β e = σ (a1 β −1 + a2 β −2 + · · · + ak β −k + · · · )β e (1.3)

donde σ = ±1 es el signo, e ∈ Z es el exponente, con a1 = 0 y 0  ai  β − 1 , para todo


i = 1, 2, . . . . La notación x = (0.a1 a2 . . . ak . . .)β significa

x = (0.a1 a2 . . . ak . . .)β
a1 a2 ak
= + 2 + ···+ k + ···
β β β
= a1 β −1 + a2 β −2 + · · · + ak β −k + · · · .

Veremos en la próxima sección cómo obtener el número de máquina que representa a un


número real x = 0 .

1.2 Corte y redondeo


La mayorı́a de los números reales no pueden ser representados de forma exacta en la repre-
sentación punto flotante, y por lo tanto deben ser aproximados por un número representable
en la máquina, de la mejor forma que nos sea posible.
Sergio Plaza 3

Dado x ∈ R , denotamos por f l (x) a la representación de x en la máquina, llamada


comúnmente representación punto flotante (float point) de x . Existen principalmente dos
maneras de obtener f l (x) a partir de x , ellas son corte y redondeo, las cuales veremos a
seguir.
Como vimos en las sección anterior, un número real x = 0 puede ser representado en forma
exacta en una base entera β > 1 de la forma siguiente

x = σ (0.a1 a2 . . . ak ak+1 . . .)β β e (1.4)

donde, σ = ± es el signo, a1 = 0 ( x está normalizado), y e ∈ Z es el exponente.


El problema ahora es decidir cómo obtener la representación punto flotante, digamos con k
dı́gitos para un número real.
Supongamos que e ∈ Z está acotado, digamos L  e  U .

Definición 1.1 Sea x ∈ R , x = 0 , con representación en una base entera β > 1 dada por
(1.4). La representación punto foltante por corte en el dı́gito k de x es dada por

f l (x) = σ (0, a1 a2 . . . ak )β β e (1.5)

donde L  e  U .

La razón para introducir corte, es que algunas máquinas usan corte después de cada operación
aritmética.

Definición 1.2 Sea x ∈ R , x = 0 , con representación en una base entera β > 1 dada por
(1.4). La representación punto flotante por redondeo en el dı́gito k de x es dada por



⎪ σ (0.a1 a2 . . . ak )β β e , si 0  ak+1 < β2


f l (x) =    (1.6)



⎩ σ (0.a1 a2 . . . ak )β + 0.00 . . . posición
1 β e , si β
2  ak+1 < β
k
β

donde L  e  U .

Observación. Esta definición formal no es otra que la que usamos comúnmente al redondear
cantidades a diario, por ejemplo al calcular el promedio final de las notas obtenidas en este
curso.

Ejemplo 3 Los siguiente números están representados en forma decimal.

1. Tenemos que π = 3.14159265 . . . = 0.314159265 . . .×101 . Esta es la representación exacta


normalizada de π en forma decimal. Ahora usando corte en el dı́gito 4 la representación
es dada por πA = 0.3141 × 101 , y usando redondeo en el dı́gito 4 la represenatción es
dada por πA = 0.3142 × 101 , pues el dı́gito a5 = 5 .
Sergio Plaza 4

2. Usando corte y redondeo a 3 dı́gitos para x = 12.462 = 0.12462 × 102 , tenemos xA =


0.124 × 102 en su representación por corte de x , y xA = 0.125 × 102 en su representación
por redondeo de x .

3. Usando corte y redondeo a 5 dı́gitos para x = 22.4622 = 0.224622 × 102 , tenemos


xA = 0.22462 × 102 en la representación por corte y en la representación por redondeo.

Para la mayorı́a de los números reales se tiene que f l (x) = x . Por esta razón introducimos
el error relativo o porcentaje de error

Definición 1.3 Sea x ∈ R , con x = 0 . El error relativo (o porcentaje de error) de x es dado


por
x − f l (x)
ER (x) = = −ε (1.7)
x

donde

a) −β −k+1  ε  0, (es decir, 0  −ε  β −k+1 ) cuando f l (x) es obtenido por corte


desde x , y

b) − 21 β −k+1  ε  12 β −k+1 cuando f l (x) es obtenido por redondeo desde x .

Lo anterior puede ser escrito en la forma



a’) 0 
x−fxl(x)
 β −k+1 cuando f l (x) es obtenido por corte desde x



β −k+1
b’) 0 
x−fxl(x)
 2 cuando f l (x) es obtenido por redondeo desde x .

De la fórmula x−fxl(x) = −ε obtenemos que f l (x) = (1 + ε) x , donde ε es dado por a) o por


b) anteriores, dependiendo del caso. Luego f l (x) puede ser considerado como una pequeña
perturbación relativa de x . La fórmula (1.7) nos permite tratar los efectos de corte y redondeo
en las operaciones aritméticas del computador.
Se define el error de f l(x) respecto a x como

E(f l(x)) = x − f l(x)

Notemos que desde la fórmula b’), para redondeo a k dı́gitos, tenemos que

1 −k+1
|E(f l(x))| = |x − f l(x)|  β |x| ,
2
ahora, como x = σ · x · β e y |x̄| < 1 , obtenemos

1 −k+1 1 1
|x − f l(x)|  β |x| = β −k+1 |x|β e  β e−k+1 , (1.8)
2 2 2
es decir,
Sergio Plaza 5

1 e−k+1
|E(f l(x))| = |x − f l(x)|  β (1.9)
2

De modo análogo, para corte a k dı́gitos, obtenemos que

|E(f l(x))| = |x − f l(x)|  β e−k+1 (1.10)

1.2.1 Precisión de la representación punto flotante


Introduciremos ahora dos medidas que nos darán alguna idea de una posible precisión de la
representación de punto flotante en las máquinas.

1.2.2 Unidad de redondeo de un computador


La unidad de redondeo de un computador es un número δ que satisface

1. δ es un número punto flotante positivo, y

2. δ es el menor número punto flotante tal que f l (1 + δ) > 1 , es decir, si δ0 < δ entonces
f l (1 + δ0 ) = 1 .

Luego, para cualquier otro número punto flotante positivo δ < δ , se tiene que f l δ + 1 = 1 ,
ası́ dentro de la aritmética del computador 1 + δ y 1 son iguales. Note que δ mide “el ancho
del cero” en una máquina.
Esto da una medida de cuántos dı́gitos de precisión son posibles en la representación de un
número. La unidad de redondeo δ para una máquina con k dı́gitos en la mantisa, es dada por


β −k+1 definición por corte de f l (x)
δ= 1 −k+1
2β definición por redondeo de f l (x)

Por ejemplo, para una máquina con aritmética binaria con k dı́gitos y redondeo para la
aritmética tenemos que δ = 2−k (y por corte se tiene que δ = 2−k+1 ) . En efecto, tenemos que

   
1 + 2−k = (0.100 . . .)2 + 0.00 . . . 0 1 0 21
posición k + 1
2
= (0.10 . . . 010)2 21 (1.11)

Tomando f l 1 + 2−k notamos que en la posición k + 1 de la mantisa existe un 1. Luego

f l 1 + 2−k = (0.10...01)2 21

por lo tanto f l 1 + 2−k > 1 , y también tenemos que f l 1 + 2−k = 1 + 2−k .
El hecho de que δ no puede ser menor que 2−k se sigue de (1.11). Ahora, si δ < δ entonces
1 + δ tiene un cero en la posición k + 1 de la mantisa, y por definición se tiene entonces que

f l 1 + δ = 1.
Sergio Plaza 6

1.2.3 Mayor entero positivo representable en forma exacta


Una segunda medida de precisión posible es dada por el mayor entero positivo M para el cual
se tiene que: para todo entero m con 0  m  M tenemos que f l(m) = m , esto significa que
f l (M + 1) = M + 1 , es decir, M es el mayor entero positivo que es posible de representar en
forma exacta en la aritmética de máquina que estamos usando.
Es fácil ver que M = β k en un computador con aritmética de k dı́gitos en la mantisa.
Observación. Los números M y δ varı́an de computador en computador. Todo usuario de
computador deberı́a conocer los números δ y M de su máquina, pues ellos representan el ancho
del cero y el mayor entero representable en forma exacta en la máquina, respectivamente, lo
cual da las medidas de precisión del computador en uso.

1.2.4 Underflow–overflow
Si una máquina trabaja con aritmática de k dı́gitos. Dado un número real x ∈ R , x = 0 ,
si al representar x en nuestra aritmática, las cotas L o U para los exponentes son violados,
entonces el número de máquina asociado a x

f l (x) = σ (0.a1 a2 . . . ãk )β β e ,

donde el dı́gito ãk es dado por corte o redondeo, no puede ser representado en tal máquina.
Por ejemplo, el menor número positivo punto flotante es xL = (0.10 . . . 0)β β L = β L−1 , y
usando la notación γ = β−1 , el mayor número positivo punto flotante es xU = (0.γ . . . γ)β β U =

1 − β −k β U . Luego todo número punto flotante positivo x , representable en la máquina,
deben satisfacer xL  x  xU .
Si durante las operaciones aritméticas obtenemos como resultado un valor de x tal que
|x| > |xU | entonces aparecerá un error fatal, este error es denominado overflow, y los cálculos
se detienen. Por otra parte, si 0 < |x| < xL entonces f l (x) = 0 y los cálculos continuaran.
Este error se denomina error de underflow.

1.3 Definición y fuentes de errores


Ahora daremos una clasificación de la principal manera en la cual el error es introducido en la
solución de un problema, incluyendo algunos que caen fuera del ámbito de la matemática.
Al resolver un problema, buscamos una solución exacta o verdadera, la cual denotamos por
xT . Aproximaciones son usualmente hechas en la solución de un problema y como resultado
obtenemos una solución aproximada xA .

Definición 1.4 El error en xA respecto de xT es dado por

E (xA ) = xT − xA (1.12)

El error absoluto en xA es dado por EA (xA ) = |E (xA )| .

Para muchos propósitos es preferible estudiar el porcentaje o error relativo en xA respecto


de xT , el cual es dado por
Sergio Plaza 7

xT − xA
ER (xA ) = , xT = 0 (1.13)
xT

Ejemplo. Sea xT = e = 2.7182818 . . . representado en forma exacta y sea xA = 19 7 =


2.71428587 una aproximación. Tenemos E (xA ) = 0.003996 y el error relativo es ER (xA ) =
0.0147 . . .
Ejemplo. Sean x = 0.3721478693 e y = 0.3720230572 , si consideramos aritmética de puntos
flotantes con 5 dı́gitos y redondeo, obtenemos

f l (x) = 0.37215
f l (y) = 0.37202
E(f l(x) − f l(y)) = f l (x)

− f l (y) = 0.00013

|ER (f l(x) − f l(y))| =


x−y−(f l(x)−f l(y))
=
0.0001248121−0.00013
≈ 4% .
x−y 0.0001248121

Algunas veces usamos el número de dı́gitos significativos como una forma medir la precisión
de la representación, el cual es calculado como sigue. Dados xT y xA como antes, si


xT − xA

|ER (xA )| =

 5 × 10−m−1 (1.14)
xT

con m ∈ N . Decimos que xA tiene al menos m dı́gitos significativos respecto de xT .

1.3.1 Fuentes de error

Cuando resolvemos un problema cientı́fico–matemático, el cual envuelve cálculos computa-


cionales, usualmente aparecen errores relacionados a este proceso, los cuales pueden ser clasifi-
cados de la siguiente forma.

E1) Errores de Modelación. Ecuaciones matemáticas son usadas para representar reali-
dades fı́sicas, este proceso se denomina modelación. La modelación introduce errores en
el problema real que se está tratando de resolver, y caen fuera del alcance del análisis
numérico.
Ilustramos la noción anterior con algunos modelos.

1) Modelos poblacionales. Modelos predador–presa, este es usado para el control de


poblaciones, por ejemplo colonia de bacterias, y son expresados por ecuaciones rela-
cionando el número de individuos existentes en cada especie, y se trata de mantener
el equilibrio de modo que no se llegue a la extinción de una de las especies, que puede
ser el alimento de la otra.
El crecimiento de la población–versus la cantidad de alimento existente y que se
puede producir, también entra en esta categorı́a.
2) Modelos de la Fı́sica. Ecuaciones son usadas para representar realidades, por ejemplo
“la velocidad es igual la razón de la distancia recorrida por el tiempo empleado para
hacerlo”, las leyes de la gravitación, las leyes de la electricidad, etc.
Sergio Plaza 8

3) Modelos de tránsito en la ciudad. Nos podemos plantear el problema de tránsito en


Santiago y los problemas relacionados con éste , y nos podemos preguntar si detrás
de ellos existe un modelo que lo respalde.
4) Modelos de Aerodinámica. Problemas de este tipo son la fabricación de aviones y
autos que sean aerodinámicamente bueno.

E2) Desatinos o Equivocaciones. Estos son la segunda fuente de errores, muy familiar,
estan más relacionados con problemas de programación. Para detectar tales errores es im-
portante tener alguna forma de chequear la precisión de la salida después de la ejecución
del programa, los cuales son llamados programas test y están basados en resultados cono-
cidos de antemano.
E3) Datos Fı́sicos. Estos contienen de modo natural errores observacionales. Como estos
contienen errores, cálculos basados en ellos también los tendrán. El Análisis numérico, no
puede remover estos errores pero debe sugerir procedimientos de cálculo que minimizan
la propagación de ellos.
Por ejemplo, las ecuaciones de la Fı́sica sólo consideran parte de las variables que influyen
en un fenómenos, despreciando otras que tienen menor influencia, por ejemplo las ecua-
ciones de la Fı́sica escolar, son simplificaciones brutales de la realidad, por otro lado, las
ecuaciones de la Teorı́a de la Relatividad considera variables que a escala pequeña no
tienen mayor importancia.
E4) Error de Máquina. Las máquinas naturalmente introducen errores principalmente por
corte y redondeo. Estos errores son inevitables cuando se usa la aritmética de punto
flotante y ellos forman la principal fuente de error en algunos problemas, por ejemplo
soluciones de sistemas de ecuaciones lineales, como veremos en el respectivo capı́tulo,
mostrando que en ejemplos sencillos podemos obtener soluciones absurdas para ecuaciones
simples. También están los ejemplos de expresiones matemáticamente equivalentes, pero
que al trabajar con aritmética de computador producen resultados diferentes.
E5) Error de Aproximaciones Matemáticas. Estos forman la mayor parte de los errores,
estas provienen del hecho que el computador sólo puede trabajar con una cantidad finita de
números, ası́ por ejemplo al calcular el área de un cı́rculo debemos usar el número π , pero
la verdad es que usamos sólo una aproximación de este número, por lo tanto el resultado
obtenido no puede ser exacto por esta razón. Otro ejemplo es que cuando trabajamos
con funciones, debemos usar aproximaciones, en general dadas por polinomios de Taylor,
por ejemplo las máquina para calcular el valor de sen(x) para un dado valor de x usa
tales aproximaciones, lo mismo ocurre cuando evalúa funciones elementales tales como
1 2
cos(x) , ex , etc. Por ejemplo, si deseamos calcular el valor de 0 ex dx tenemos algunos
problemas, pues esta integral no es expresable en términos de funciones elementales, pero
usando series de Taylor se tiene que
x4 x6
ex = 1 + x2 +
2
+ + ···
2! 3!
de donde, usando una aproximación por un polinomio de Taylor obtenemos una aproxi-
mación para el valor de integral dado por
 1  1 
x2 2 x4 x6 1 1 1
e dx ≈ 1+x + + dx = 1 + + + = 1.457142285 . . . .
0 0 2! 3! 3 10 42
1 2
Observación. El valor de la integral 0 ex dx con 20 dı́gitos es 1.4626517459071816088
Sergio Plaza 9

1.3.2 Pérdida de dı́gitos significativos


Para comenzar consideremos el problema de la evaluación de la función
√ √
f (x) = x x + 1 − x
√ √
para
√ valores √ crecientes de x . Por ejemplo, tenemos f (100) = 100 101 − √ 100 , ahora
√ como
101 − 100 = 0.0498752 . . . , evaluando f (100) tiene que f (100) = 100 101 − 100 =
4.987562 . . . .√Ahora√si trabajamos con aritmética de 6 dı́gitos y redondeo, obtenemos
√ los siguien-

tes valores: 101− 100 = 10.0499−10 = 0.049900 luego f (100) = 100 101 − 100 = 4.99
en nuestra aritmética.
√ √
El cálculo de 101− 100 = 0.049900 cuyo valor aproximado es 0.0498756 √ tiene perdida del

significado del error. Note que tres dı́gitos de precisión√en x + 1 = 101 fueron cancelados

en la resta con los correspondientes dı́gitos de x = 100 . La perdida de precisión fue un
subproducto de la forma de f (x) y la precisión de la aritmética finita usada. Observe que
f (x) puede ser reescrita de la siguiente manera
√ √ x
f (x) = x x + 1 − x = √ √ ,
x+1+ x
esta ultima forma no tiene perdida de significado de error en su evaluación, pues
100 100
f (100) = = = 4.98756.
10.0499 + 10 20.0499
√ √
Observación. Es importante notar que las expresiones x x + 1 − x y √x+1+ x √
x
para
la misma función, son matemáticamente equivalentes, pero numéricamente no lo son, pues la
evaluación de ellas en nuestra aritmética nos arrojan resultados distintos.
Observación. Los programadores deben tener en cuenta esta posibilidad de este error y evitar
este fenómeno de perdida de dı́gitos significativos.
La perdida de dı́gitos significativos es un subproducto de la resta de números parecidos. Esto
redunda en “inestabilidad” en los cálculos numéricos.

Ejemplo 4 La ecuación de segundo grado

x2 − 18x + 1 = 0
√ √ √
tiene soluciones x1 = 9 + 80 y x2 = 9 − 80 . Si consideramos 80 con 4 dı́gitos decimales
correctos, obtenemos

x1 = 69 + 8.9443 ± 0.5 × 10−4 = 17.9443 ± 0.5 × 10−4

x2 = 9 − 8.9443 ± 0.5 × 10−4 = 0.0557 ± 0.5 × 10−4 .

Luego, la aproximación de x1 tiene 6 dı́gitos significativos y x2 tiene sólo 3. La cancelación


es evitada reescribiendo
√ √
(9 − 80)(9 + 80) 1 1
x2 = √ = √ =
9 + 80 9 + 80 17.9443 ± 0.5 × 10−4
1
y entonces x̄2 = 17.9443 = 0.055728002 . . . .
Sergio Plaza 10

1−cos(x)
Ejemplo 5 Consideremos la función f (x) = x2 . Si usamos desarrollos en series de
Taylor, obtenemos

  
1 x2 x4 x6
f (x) = 1 − 1 − + − + R6 (x)
x2 2! 4! 6!
2 4 6
1 x x x
= − + − cos (x) ,
2! 4! 6! 8!
1
de donde f (0) = 2 , y para |x| < 0.1 , tenemos que

6


x
−6

cos (x)
< 10 = 2.5 × 10−11 .

8!
8!
1 2 4
Luego la aproximación f (x) = 2! − x4! + x6! , para |x| < 0.1 posee la precisión dada arriba.
Esto nos brinda una manera mucho más fácil para evaluar f (x) .

Teorema 1.1 (Perdida de Precisión) Si x e y son números representados en la base β > 1


en su forma normalizada de punto flotante, tales que x > y , con
y
β −q  1 −  β −p .
x
Entonces en la resta x − y se pierden a lo más q y al menos p dı́gitos significativos.

Ejemplo 6 Sea y = x − sen(x) . Como sen(x) ≈ x para valores pequeños de x , este cálculo
tendrá una perdida de dı́gitos significativos ¿Cómo puede evitarse?
Una forma alternativa para la función y = x − sen(x) resulta del desarrollo en serie de Taylor
alrededor de x = 0 . Luego,
 
x3 x5 x7 x3 x5 x7
y = x − sen(x) = x − x − + − + ··· = − + + ···
3! 5! 7! 3! 5! 7!

como x es próximo de cero, podemos truncar la serie, obteniendo, por ejemplo


x3 x5 x7 x9
y≈ − + − .
3! 5! 7! 9!
Consideremos el caso sen(x) > 0 , como x > sen(x) = y , utilizando el teorema de Perdida de
Precisión, obtenemos que la perdida de dı́gitos significativos en la resta dada por y = x− sen(x)
puede limitarse a un dı́gito significativo si restringuimos x de tal modo que 1 − sen(x) x
1
 10 ,
9 sen(x) sen(x) 9
esto es, 10  x , de donde tenemos que x  10 si |x|  1.9 . Para |x| < 1.9 usamos
x10 sen(x)
la representación en serie de Taylor truncada tomando R10 (x) = 10! , luego
x10 |sen (x) | 1.910
|R10 (x)| = < ≈ 0.00017 ≈ 1.7 × 10−4 .
10! 10!
Ejemplo 7 ¿Cuántos dı́gitos significativos se pierden en la sustracción 1 − cos(x) cuando
x = 14 ?

Consideremos f (x) = 1 − cos(x) , por lo tanto f 14 = 1 − cos 14 = 0.0310875 . Como
cos(x) < 1 , podemos utilizar el teorema de Perdida de Precisión y tenemos que 2−q  1 −

cos 14  2−p , con q = 6 y p = 5 . Por lo tanto se pierden a lo más 6 y a lo menos 5 dı́gitos
significativos.
Sergio Plaza 11

Ejemplo 8 ¿Cuántos dı́gitos significativos se pierden en una computadora cuando efectuamos


la sustracción x − sen(x) para x = 12 ?

Consideremos f (x) = x − sen(x) . Para x = 12 obtenemos f 12 = 12 − sen 12 = 0.020574
como x > sen(x) para sen(x) > 0 , tenemos que 2−q  1 − sen(0.5) 0.5 = 0.020574  2−p , de
donde podemos deducir que q = 5 y p = 4 , es decir, se peirden a lo más 5 y al menos 4 dı́gitos
significativos en la resta x − sen(x) para x = 1/2 .

1.3.3 Propagación de error

Sea ω una operación aritmética + , − , × , / y sea ω la correspondiente versión computa-


cional, la cual incluye, usualmente, redondeo o corte. Sean xA y yA números usados en los
cálculos y suponga que ellos ya tienen errores, siendo sus valores verdaderos xT = xA + ε y
yT = yA + η , dicho de otra forma ε = E(xA ) = xT − xA y η = E(yA ) = yT − yA . Entonces
xA ωyA es el número calculado, para el cual el error es dado por

xT ω yT − xA ω yA = xT ω yT − xA ω yA + xA ω yA − xA ω yA (1.15)
     
Error Propagado Error de redondeo o corte

La cantidad xT ω yT − xA ω yA es llamada error propagado y la cantidad xA ω yA − xA ω yA


es llamada error de redondeo o corte.
Usualmente para el error de redondeo o corte tenemos que

xA ωyA = f l (xA ωyA )

lo cual significa que xA ω yA es calculado correctamente y luego redondeado o cortado. Por lo


tanto tenemos que
1
| xA ωyA − xA ωyA |  |xA ωyA | β −k+1
2
si usamos redondeo, y

| xA ωyA − xA ωyA |  |xA ωyA | β −k+1

si usamos corte.
Lo anterior nos da el redondeo o corte verdadero usado.
Para el error propagado examinaremos algunos casos particulares.

Caso a. Multiplicación. Para el error en xA yA , tenemos xT = xA + ε y yT = yA + η , es


decir, ε = E(xA ) = xT − xA y η = E(yA ) = yT − yA , por lo tanto

E(xA yA ) = xT yT − xA yA
= xT yT − (xT − ε) (yT − η)
= xT η + yT ε − εη

de donde,
Sergio Plaza 12

E(xA yA ) = xT E(yA ) + yT E(xA ) − E(xA )E(yA ) (1.16)

En particular, E(x2A ) = 2xT E(xA ) − E(xA )2 .


Para el error relativo, tenemos

xT yT − xA yA
ER (xA yA ) =
xT yT
η ε εη
= + − ,
yT xT xT yT

es decir,

ER (xA yA ) = ER (xA ) + ER (yA ) − ER (xA ) ER (xA ) (1.17)

Observemos que si |ER (yA )| , | ER (xA )| << 1 ( << significa “mucho menor que”) entonces
ER (xA yA ) ≈ ER (xA ) + ER (yA ) .

Caso b. División.

 
xA ER (xA ) − ER (yA )
ER = (1.18)
yA 1 − ER (yA )

 
Si | ER (yA )| << 1 se tiene que ER xA
yA ≈ ER (xA ) − ER (yA ) .
Observación. Para las operaciones de multiplicación y división, los errores relativos no se
propagan rápidamente.

Caso c. Adición y sustracción.

E(xA ± yA ) = (xT ± yT ) − (xA ± yA )


= (xT − xA ) ± (yT − yA ) = ε ± η ,

por lo tanto

E (xA ± yA ) = E (xA ) ± E (yA ) (1.19)

Esto parece ser bastante bueno y razonable, pero puede ser engañoso. El error relativo en
xA ± yA puede ser bastante pobre cuando es comparado con ER (xA ) y ER (yA ) .

22
Ejemplo 9 Consideremos xT = π , xA = 3.1416 , yT = 7 , e yA = 3.1429 . Tenemos
Sergio Plaza 13

E(xA ) = xT − xA ≈ −7.35 × 10−6 , ER (xA ) = −2.34 × 10−6

E(yA ) = yT − yA ≈ −4.29 × 10−5 , ER (yA ) = −1.36 × 10−5

E(xA ± yA ) = (xT − yT ) − (xA − yA ) ≈ −0.0012645 − (−0.0013) ≈ 3.55 × 10−5

Aunque el error en xA − yA es pequeño, el error relativo en xA − yA es mucho mayor que


en xA e yA .

Ejemplo 10 Sea xA = 3.0015 = 0.30015×101 correctamente redondeado al número de dı́gitos


2
señalados. Considere las expresiones matemáticamente equivalentes u(x) = (3 − x) , v(x) =
(3 − x) (3 − x) y w(x) = (x − 6) x + 9 .
Si utilizamos en la evaluación de cada una de las expresiones anteriores un computador con
aritmética decimal de redondeo a 4 dı́gitos ¿qué valores numéricos se obtendrı́an?
Es fácil realizar los cálculos numéricos con una máquina, por lo tanto se dejan a cargo del
lector.
Estudiemos la propagación del error absoluto en cada una de las expresiones correspondientes,
determinando cotas para los valores absolutos de cada uno de los errores respectivos.
−k+1 −k+1 −k+1
Sabemos que − β 2  xTx−x
T
A
 β 2 , de donde |xT − xA |  β 2 |xT | . Ahora, si
escribimos xT en su forma normalizada, es decir, xT = σ xT 10e , donde 0.1  xT < 1 ,
−k+1
obtenemos que E (xA ) = |xT − xA |  10 2 | xT | × 10e , aquı́ k = 5 y e = 1 , por lo tanto
−3 −3 −3
E (xA ) = |xT − xA |  102 , de donde − 102 +xA  xT  102 +xA luego 3.001  xT  3.002 ,
por lo tanto



|E (uA )| =
E (3 − xA )2
= |E ((3 − xA ) (3 − xA ))| =
2 (3 − xT ) E (3 − xA ) − (E (3 − xA ))2

 2 |3 − xT | |E (3 − xA )| +
E (3 − xA )2
 2 × 0.002 |E (xA )| + |E (xA )|2

 2
10−3 10−3
 2 × 0.002 × 2 + 2 = 0.225 × 10−5 .

Observación. Desde la definición del error se tiene que E (xA + c) = E (xA ) .


Falta analizar para vA . Este se deja a cargo del lector.
Tenemos finalmente que

|E (wA )| = |E ((xA − 6) xA + 9)| = |E ((xA − 6) xA )|

= |(xT − 6) E (xA ) + xT E (xA − 6) − E (xA ) E (xA − 6)|

2
 |xT − 6| |E (xA )| + |xT | |E (xA )| + |E (xA )|

1
1 2
 2.999 × 2 × 10−3 + 3.002 21 × 10−3 + 2 × 10−3 = 0.00300075.
Sergio Plaza 14

1.4 Propagación de error en evaluación de funciones


Sea f (x) una función, la cual suponemos derivable, con derivada continua. Sea xA un valor
aproximado de xT ¿Cómo aproxima f (xA ) a f (xT ) ?
Usando el Teorema del Valor Medio, tenemos

f (xT ) − f (xA ) = f  (c) (xT − xA )

donde c entre xA y xT . Como en general, xA y xT son bastante próximos, tenemos que

f (xT ) − f (xA ) ≈ f  (xT ) (xT − xA )


≈ f  (xA ) (xT − xA ) ,

luego,

E(f (xA )) ≈ f  (xA )E(xA ) (1.20)

Tenemos además que

|E(f (xA ))|  |E(xA )| · max{ |f  (x)| : x entre xT y xA } (1.21)

Para el error relativo tenemos la fórmula

f  (xT ) f  (xT )
ER (f (xA )) ≈ (xT − xA ) ≈ xT ER (xA ) (1.22)
f (xT ) f (xT )


(x)
El número κ(x) = ff (x) x es llamado el número de condición de f (x) . Si | limx→xT κ(x)| =
+∞ , decimos que la evaluación de f para x ≈ xT es numéricamente inestable. Caso contrario,
decimos que la evaluacion de f para x ≈ xT es estable.
Notemos que si min{f (x) : x entre xT y xA } = 0 , entonces

max{ |f  (x)| : x entre xT y xA }


|ER (xA )|  max{|x| : x entre xT y xA } |ER (xA )| .
min{ |f (x)| : x entre xT y xA }

Como antes podemos escribir,

f (xT ) − f¯(xA ) = (f (xT ) − f (xA )) + (f (xA ) − f¯(xA )),

donde f (xT ) − f (xA ) es el error propagado y f (xA ) − f¯(xA ) es el error de la evaluación de


f (x) en el computador.

Ejemplo 11 Consideremos f (x) = tan(x) . Para x0 = π/2 tomamos aproximaciones x1 =


2 − 0.00001 y x2 = 2 − 0.000001 . Evaluando, nos queda y1 = tan(x1 ) = 100.000 e y2 =
π π

tan(x2 ) = 1.000.000 , luego y2 − y1 = 900.000 mientras que x2 − x1 = 9 × 10−6 .


Sergio Plaza 15

sen( π π
3 +x)−sen( 3 −x)
Ejemplo 12 Considere la función f (x) = 2x .
Veamos si esta función es numéricamente estable la evaluación de f (x) para x ≈ 0 .
Primero un argumento teórico de resta de números parecidos nos muestra que f (x) es
numéricamente inestable en su evaluación para x ≈ 0 . Vemos si hay perdida de dı́gitos
significativos evaluando f (x) para x = 10−n con n = 1, 2, . . . , 13 . Tenemos la siguiente
tabla

xn f (x)
1
x1 = 10 0.017450368
1
x2 = 102 0.017450377
1
x3 = 103 0.017450377
1
x4 = 104 0.017450377
1
x5 = 105 0.01745038
1
x6 = 106 0 0.0174504
1
x7 = 107 0.0174505
1
x8 = 108 0.01745
1
x9 = 109 0.0174

Observe que el error entre las cantidades x8 y x9 , lo cual denotamos por E (x8 , x9 ) , es
E (x8 , x9 ) = |0.01745 − 0.0174| = 0.00005 , como el error es un valor grande tenemos inestabili-
dad numérica. Recuerde que en números de partida próximos se debe tener imágenes próximas.
Determinemos ahora un polinomio de grado mayor o igual a uno, que aproxime a f (x) y
que sea numéricamente estable para x ≈ 0 . Desarrollando, obtenemos la expresión siguiente
para f ,

π √
sen( π3 ) cos(x) + sen(x) cos( π3 ) − sen( π3 ) cos(x) + sen(x) cos 3 3 sen(x)
f (x) = = .
2x 2 x

3 5 7

 que sen(x) = x − 3! + 5! − 7! + · · · ,
x x x
Ahora, desarrollando sen(x) en serie de Taylor tenemos
√ √ 
3 sen(x) 3 x2 x4 x6
luego f (x) = 2 = 2 1 − 3! + 5! − 7! + · · · . Consideramos la siguiente aproxi-
√  
x

mación polinomial p(x) = 23 sen(x)
x ≈ 2
3
1 − x2
6 para f , y vemos que en ella no existe
resta de números parecidos luego es estable. Por otra parte, si calculamos el número condición
obtenemos para nuestra aproximación polinomial, tenemos


p (x) x − x3 2x2
κ(x) = x = = −
p (x) 1 − x6
2
6 − x2


(x)
y para valores x ≈ 0 se tiene que x pp(x) ≈ 0 , de donde concluimos que nuestra aproximación
es numéricamente estable.
Sergio Plaza 16

1.5 Errores en sumas



n
Veamos como se propaga el error en sumas repetidas. Sea S = a1 + a2 + · · · + an = aj ,
j=1
donde cada aj es un número punto flotante, para sumar estos valores en la máquina se necesitan
n − 1 sumas, cada una de las cuales, envuelve errores de redondeo o corte. Mas precisamente,
definimos
S2 = f l (a1 + a2 )

la versión punto flotante de a1 + a2 . Enseguida, definimos

S3 = f l (a3 + S2 )
S4 = f l (a4 + S3 )
..
.
Sn = f l (an + Sn−1 )

Sn es la versión punto flotante de S . Tenemos

S2 = (a1 + a2 ) (1 + ε2 )
S3 = (a3 + S2 ) (1 + ε3 )
..
.
Sn = (an + Sn−1 ) (1 + εn ) .

Los término en la expresión anterior pueden ser combinados, manipulados y estimados, obte-
niendo lo siguiente

S − Sn = −a1 (ε2 + · · · + εn )
−a2 (ε2 + · · · + εn )
−a3 (ε3 + · · · + εn )
..
.
−an εn

observando esta fórmula y tratando de minimizar el error total de S − Sn , la siguiente puede


ser una estrategia razonable: ordenar los términos a1 , a2 , . . . , an antes de sumarlos de tal
modo que 0  |a1 |  |a2 |  |a3 |  · · ·  |an | . De esa manera los términos del lado derecho
de la expresión arriba con el mayor número de εj son multiplicados por los menores valores de
aj . Luego esto minimiza S − Sn sin costos adicionales en la mayorı́a de los casos.

1.6 Estabilidad en métodos numéricos


Muchos problemas matemáticos tienen soluciones que son bastante sensitivas a pequeños errores
computacionales, por ejemplo errores de redondeo. Para tratar con este fenómeno, introducire-
mos los conceptos de estabilidad y número condición. El número condición de un problema
está relacionado al máximo de precisión que puede ser obtenido en su solución cuando usamos
Sergio Plaza 17

números de longitud finita y aritmética de computador. Estos conceptos son entonces exten-
didos a métodos numéricos usados para calcular la solución. En general, queremos que los
métodos numéricos usados no tengan sensibilidad a pequeños errores más allá de los originados
en el problema matemático mismo.
Para simplificar, supongamos que nuestro problema viene dado por

F (x, y) = 0. (1.23)

La variable x es la incógnita buscada y la variable y son los datos de los cuales depende
la solución. Por ejemplo F puede ser una función real de dos variables, o x puede ser una
variable real e y puede ser un vector, puede ser una ecuación diferencial o integral o funcional,
etc.
Diremos que el problema (1.23) es estable si la solución x depende continuamente de la vari-
able y , esto significa que si (yn )n∈N es una sucesión de valores aproximándose a y , entonces
los valores solución asociados (xn )n∈N deben aproximarse a x de la misma forma. Equivalen-
temente si hacemos pequeños cambios en y esos deben corresponder a pequeños cambios en
x . El sentido en el cual los cambios son pequeños depende de la norma que se este usando en
x e y , respectivamente, existen varias elecciones posibles, variando de problema en problema.
Problemas estables son también llamados well-posed problems. Si un problema no es estable,
este es llamado inestable o ill-posed problem.

Ejemplo 13 Considere el sistema de ecuaciones lineales

x + 2y = 3
0.5x + 1.000001y = 1.5

Multiplicando la primera ecuación por 0.5 y restando las ecuaciones, obtenemos y = 0 , de


donde x = 3 .
Consideremos ahora el sistema próximo

x + 2y = 3
0.4999999x + 1.000001y = 1.5

Multiplicando la primera ecuación por 0.4999999 y restando las ecuaciones, obtenemos


−1.2 × 10−6 y = −3 × 10−7 , de donde y = 0.25 y x = 3 − 2y = 2.5 , soluciones que no
son próximas, aún cuando los coeficientes de las ecuaciones en ambos problemas son próximos,
de hecho, 0.5 − 0.4999999 = 10−7 y las soluciones varian del orden de 0.25.

Ejemplo 14 Consideremos la solución de

ax2 + bx + c = 0, a = 0

cualquier solución es un número complejo, los datos de este caso son y = (a, b, c) vector de los
coeficientes y la solución esta dado por

−b ± b2 − 4ac
x=
2a
Sergio Plaza 18

la cual varı́a continuamente con y = (a, b, c) .

Si el problema es inestable, entonces existen serias dificultades al tratar de resolverlo. Usual-


mente no es posible resolver tales problemas sin primero tratar de entender mas acerca de las
propiedades de la solución, usualmente retornando al contexto en el cual el problema matemático
fue formulado. Esto nos lleva a otras áreas de investigación en Matemática Aplicada y Análisis
Numérico.
Para propósitos prácticos existen muchos problemas que son estables en el sentido anterior,
pero que continúan fastidiosos con respecto de los cálculos numéricos. Para tratar esta dificultad
introducimos una medida de la estabilidad, llamada número condición.
El número condición trata de medir los posibles malos efectos sobre la solución x del problema
cuando la variable y es perturbada en una cantidad pequeña. Sea y + δy una perturbación de
y , y sea x + δx la solución de la ecuación perturbada

F (x + δx , y + δy ) = 0.

Definimos

δx 
x
κ (x) = sup δy 
(1.24)
δy
y

donde   es una norma en el espacio adecuado.


Problemas que son inestables nos llevan a lim κ (x) = ∞ . El número κ (x) es llamado
δx→0
número de condición del problema F (x, y) = 0 . Este es una medida de la sensibilidad de la
solución a pequeños cambios de la data y .
Si κ (x) es bastante grande entonces existen cambios pequeños δy relativos a y que llevan
a grandes cambios relativos a x . Pero si κ (x) es pequeño, digamos κ (x)  C , con C
una constante “razonable dependiendo del problema”, por ejemplo, entonces cambios relativos
en y siempre llevan cambios pequeños relativos en x . Como cálculos numéricos casi siempre
envuelven una variedad de pequeños errores computacionales, no deseamos problemas con un
número condición grande. Tales problemas son llamados ill-condicioned problem.

Ejemplo 15 Considere el problema x−ay = 0 , donde a > 0 . Perturbando y por δy tenemos


ay+δy −ay
δx
x = ay = aδy − 1 . Por lo tanto

δ

δ


x

a y − 1

κ (x) = sup

= sup
y
x
.
δy
δy
δy δy

Restringiendo δy a valores pequeño, obtenemos que κ (x) ≈ |y log (a)| .

1.7 Inestabilidad numérica de métodos


Definición 1.5 Decimos que un proceso numérico es inestable si pequeños errores que se pro-
ducen en alguna etapa se agrandan en etapas posteriores degradando seriamente la exactitud
del cálculo en su conjunto.
Sergio Plaza 19

Ejemplo 16 Consideremos la siguiente sucesión





1

⎨ x0 = 1, x1 = 3



⎩ xn+1 = 13 xn − 4 xn−1 , n  1.
3 3
n+1
Observe que la sucesión es equivalente a la sucesión xn+1 = 13 y que xn > 0 para todo
n ∈ N . Es claro de esta última expresión que lim xn = 0 , mientras que en la evaluación
n→∞
numérica de xn aparecen valores negativos, (que los alumnos hagan la tabla para la primera
n+1
expresión de xn , es decir, la fórmula dada inicialmente). La prueba de xn+1 = 13 , es fácil
y se hace por inducción.

1.8 Ejemplos resueltos


√ √
1−x2 − 3 1−x2
Ejemplo 17 Considere la función definida por f (x) = x2 .

1. ¿Se produce inestabilidad numérica al evaluar f (x) en valores de x ≈ 0 ?

2. Determine una expresión algebraica, matemáticamente equivalente a f (x) , la cual sea


estable numéricamente para valores de x ≈ 0 .

3. Determine una aproximación polinomial de grado mayor o igual a tres para f (x) en el
intervalo |x| < 0.5 , la cual sea numéricamente estable.

Solución. Para ver si existe inestabilidad numérica en la evaluación de f (x) para x ≈ 0


puede usarse una tabla de valores o argumentar la existencia de resta de números parecidos.
Para la segunda parte, tenemos
√ √ √ √
1−x2 − 3 1−x2 3
f (x) = x 2 = − 1− 1−x2
x2 + 1− 1−x2
x2

√ √ √ √
3

3
3 1+ 1−x2 + (1−x2 )2
− 1− x1−x 1+√1−x2 1− 1−x2 √
2
= 2
1+ 1−x2
+ x2 √
3 3
1+ 1−x2 + (1−x2 )2

=− √1 + √
1√
1+ 1−x2 1+ 3
1−x2 + 3 (1−x2 )2

Finalmente, para encontrar una paroximación que sea numéricamente estable para f (x) ,
sean  
F (x) = 1 − x2 , G(x) = 1 − x2
3

por lo tanto se tiene si desarrollamos vı́a Taylor que


x2 x4 x6
F (x) ≈ 1 − 2 − 8 − 16

x2 x4 2x6
G (x) ≈ 1 − 3 − 9 − 9

por lo tanto
x2 x4 x6 x2 x4 2x6
1− − − −1+ + + 1 1 49 4
f (x) ≈ 2 8 16 3 9 9
= − − x2 − x
x2 6 72 1296
Sergio Plaza 20

Ejemplo 18 Considere xA = 1.00011 redondeado al número de dı́gitos que se señala. Considere


las expresiones matemáticamente equivalentes u = (x − 1) (x − 2) y v = x (x − 3) + 2.

1. Usando el Teorema del Valor Medio, estudie la propagación del error para u y v.

2. Determine buenas cotas para ER (uA ) y para ER (vA ) .

Solución. Sea xT el valor exacto y xA una aproximación de xT .


Definamos f (x) = (x − 1) (x − 2), ası́ f  (x) = 2x − 3, luego
|f (xT ) − f (xA )| = |f  (c)| |xT − xA | , con c entre xT y xA . Si xA ≈ xT entonces

|f (xT ) − f (xA )| ≈ |f  (xA )| |xT − xA | = 0.099978 · |E (xA )|  4.9989 · 10−5

ya que xA = 1.00011 está redondeado a 6 dı́gitos, entonces se tiene que |E (xA )|  0.5 ·
10−6+1+1 = 0.5 · 10−4 .
Definamos g (x) = x (x − 3) + 2, de donde se tiene que g  (x) = 2x − 3. Luego

|g (xT ) − g (xA )| ≈ |g  (xA )| |xT − xA |

= 0.99978 |EA (xA )|  0.99978 · 0.5 · 10−4 = 4.9989 · 10−5

Para el error relativo, tenemos

|uT − uA | 4.9989 · 10−5


ER (uA ) = 
|uT | |xT − 1| |xT − 2|

Por otro lado sabemos que |E (xA )|  0.5 · 10−6+1+1 = 0.5 · 10−4 por lo tanto

−0.5 · 10−4 + 1.00011  xT  0.5 · 10−4 + 1.00011 ⇒

0.00006  xT − 1  0.00016 y − 0.99994  xT − 2  −0.99984

de donde se deduce que

1 1 1 1
  16666.67 y   1.0001600256 .
|xT − 1| 0.00006 |xT − 2| 0.99984
por lo tanto

|uT − uA |
ER (uA ) =  4.9989 · 10−5 (16666.67) (1.0001600256)  0.8323283325329
|uT |

1.9 Ejercicios
Problema 1.1 La ecuación de segundo grado ax2 + bx + c = 0 se resuelve usualmente por
las fórmulas √ √
−b + b2 − 4ac −b − b2 − 4ac
x1 = , x2 = .
2a 2a
Sergio Plaza 21

Pruebe que una solución alternativa viene dada por

2c 2c
x1 = √ , x2 = √ .
2
−b − b − 4ac −b + b2 − 4ac
Escriba un programa en MatLab que resuelva las ecuaciones de segundo grado de las dos
maneras indicadas. Ejecute el programa cuando
(i) a = 1.0 , b = −5.0 , c = 6.0 , (ii) a = 1.0 , b = 12345678.03 , c = 0.92 .

Problema 1.2 Usando MatLab calcule x + y + z de las dos formas matematicamente equiva-
lentes, x+ (y + z) y (x+ y)+ z cuando (i) x = 1.0 , y = −5.0 , z = 6.0 , (ii) x = 1 × 1020 ,
y = −1 × 1020 , z = 1.0 . Explique los resultados obtenidos.

Problema 1.3 Con MatLab, usando el formato largo, calcule h = 1/3333 . Enseguida sume
3333 veces la cnatidad obtenida. También multiplique dicha cantidad por 3333. Explique los
resultados obtenidos.
π
tan 4 + x − tan π4 − x
Problema 1.4 Considere la función h (x) =
2x

1. ¿Es numéricamente estable la evaluación de h(x) para x ≈ 0 ? Justifique su respuesta.

2. Determine una expresión matemáticamente equivalente a h(x) que sea numéricamente


estable en su evaluación para x ≈ 0 .

3. Usando desarrollos de Taylor, determine un polinomio de grado mayor o igual que 4, que
aproxime a h(x) y que sea numéricamente estable en su evaluación para x ≈ 0 .

Problema 1.5 Considere las expresiones matemáticamente equivalente u(x, y) = (x + y)2 −


(x− y)2 y v(x, y) = 4xy . Sabiendo que xA = 1.214301 e yA = 0.24578 están correctamente
redondeados al número de dı́gitos señalados, estudie la propagación del error absoluto (valor
absoluto del error) en la evaluación de u y de v , determinando una buena cota Cuál de ellas
tiene menor propagación del error?

Problema 1.6 Considere la ecuación√cúbica x3 − 31x − 31x√ − 1 = 0(3)


. Al calcular las raı́ces de
(1) (2)
esta ecuación obtenemos rT = 15 + 224 , rT = 15 − 168 , y rT = 1 . Suponga que usa
(1) (2) (3)
aritmética de redondeo a 5 dı́gitos y denote por rA , rA , y rA las soluciones aproximadas
obtenidas para la ecuación.

1. Calcule el error absoluto y el error relativo (en valor absoluto) en las soluciones apro-
ximadas.

2. Una de ellas tiene perdida del dı́gitos significativos. Proponga una expresión algebraica
matemáticamente equivalente para evitar la perdida de dı́gitos significativos en ese caso.
Justifique la respuesta calculando el nuevo error relativo (en valor absoluto).

Problema 1.7 Sea w(x, y) = (x − y)(x2 + xy + y 2 ) , con xA = 1.2354 e yA = 3.001 , número


redondeado correctamente al número de dı́gitos señalados, determine una buena cota para
|E(xA , yA )| .
Sergio Plaza 22

sen(x) − x
Problema 1.8 Sea f (x) = .
x

1. Analice la estabilidad numérica en la evaluación de f (x) para x ≈ 0 .

2. Encuentre una aproximación polinomial de grado mayor o igual que 3 para f (x) y que
sea estable numéricamente para la evaluación cuando x ≈ 0 .

Problema 1.9 Considere la función definida por f (x) = 100x .

1. Estudie la estabilidad numérica en la evaluación de f (x) de acuerdo a los valores de


x ∈ R.

2. Si xA = 1000.01 es un número redondeado correctamente al número de dı́gitos señalados,


determine una buena cota para |E(f (xA ))|,.

Problema 1.10 Considere las expresiones matemáticamente equivalentes: u = (x − 1)3 y


v = −1 + x(3 + x(−3 + x))

1. Estudie la propagación del error absoluto en las expresiones u y v .

2. Qué puede decir acerca de la presición que se puede obtener para u y v , para un deter-
minado valor de x ?

Problema 1.11 Sea xA = 2.0015 , redondeado al número de dı́gitos señalados. Considere las
expresiones matemáticamente equivalentes: u = (x−4)2 , v = (x−4)(x−4) , w = (x−8)x+16 .

1. Si utiliza en la evaluación de cada una de las expresiones anteriores un computador con


aritmética decimal de redondeo a 4 dı́gitos, qué valores numéricos se obtendrı́an en cada
una de las expresiones?

2. Estudie la propagación del error (absoluto) en cada una de las expresiones correspondientes,
determinando buenas cotas para los valores absolutos de cada uno de los errores respec-
tivos.

Problema 1.12 Analice la estabilidad numérica en la evaluación de f (xA ) para xA ≈ 0 ,


donde
ex − 1
f (x) = .
sen(x)

Problema 1.13 Sean xA = 1.0005 e yA = 0.999092 , redondeados correctamente al número


de dı́gitos señalados. Considere las expresiones matemáticamente equivalentes: u = x3 + y 3 y
w = (x + y)(x2 − xy + y 2 ) .

1. Si utiliza en la evaluación de cada una de las expresiones anteriores un computador con


aritmética decimal de redondeo a 4 dı́gitos en cada etapa del cálculo, qué valores numéricos
se obtendrı́an en cada una de las expresiones?

2. Estudie la propagación del error (absoluto) en la expresión u , determinando una buena


cota para el valor absoluto del error (usando xA ).
Sergio Plaza 23

e2x − 1
Problema 1.14 Considere la función f (x) = .
2xex

i) Es numéricamente estable la evaluación de f (x) para x ≈ 0 ? Justifique brevemente y


alternativamente evaluando f (x) , para x = 10−n con n = 1, . . . , 13 .

ii) Determine un polinomio de grado mayor o igual que 3, que aproxime a f (x) y que sea
estable numéricamente para x ≈ 0 .

Problema 1.15 Sea xA = 1.0015 , redondeado correctamente al número de dı́gitos señalados.


Considere las expresiones matemáticamente equivalentes: u = (x−1)3 y w = ((x−3)x+3)x−1 .

1. Si utiliza en la evaluación de cada una de las expresiones anteriores un computador con


aritmética decimal de redondeo a 4 dı́gitos en cada etapa del cálculo, qué valores numéricos
se obtendrı́an en cada una de las expresiones?

2. Estudie la propagación del error (absoluto) en la expresión u , determinando una buena


cota para el valor absoluto del error (usando xA ).

cos(π/3 + x) − cos(π/3 − x)
Problema 1.16 Considere la función f (x) = .
2x

i) Es numéricamente estable la evaluación de f (x) para x ≈ 0 ? Justifique brevemente y


alternativamente evaluando f (x) , para x = 10−n con n = 1, . . . , 13 .

ii) Determine un polinomio de grado 1, que aproxime a f (x) y que sea estable numéricamente
para x ≈ 0 .
 
Problema 1.17 Considere la función f (x) = x + 1/x − x − 1/x .

i) Estudie la estabilidad numérica en la evaluación de f (x) para x ≈ 0 . Justifique.

ii) Proponga una expresión algebraica, que sea matemáticamente equivalente a f (x) y que
sea numéricamente estable en la evaluación para x ≈ 0 .

iii) Determine un polinomio de grado mı́nimo mayor que 0, que aproxime a f (x) , y que sea
estable numéricamente para la evalución en x ≈ 0 . Además, obtenga una buena cota
para el error correspondiente con |x|  0.1 y x = 0 .

Problema 1.18 Considere las expresiones equivalentes, uA = (xA − 2)(x2A − 3xA + 1) y


vA = ((xA − 5)xA + 7)xA − 2 . Suponga que cada una de las operaciones aritméticas en las
expresiones uA y vA deben ser redondeadas a 3 dı́gitos en la mantisa.

(a) Para xA = 2.01 , redondeado al número de dı́gitos señalados, evalué las expresiones equiv-
alentes de acuerdo a lo expresado arriba, y compare las precisiones de ambos resultados.

(b) Estudie la propagación del error absoluto en ambas expresiones, uA y vA , acotando los
errores correspondientes (en valor absoluto) Qué puede decir acerca de lo concluido en
a)?
Capı́tulo 2

Ecuaciones no Lineales

En este capitulo estudiaremos uno de los problemas básicos de la aproximación numérica: el


problema de la búsqueda de raı́ces. Este consiste en obtener una raı́z exacta o una buena aprox-
imación a la raı́z exacta de una ecuación de la forma f (x) = 0 , donde f es una función dada.
Este es uno de los problemas de aproximación más antiguos, y sin embargo, la investigación
correspondiente todavı́a continua. El problema de encontrar una aproximación a una raı́z de
una ecuación se remonta por lo menos al año 1700 a.C. Una tabla cuneiforme que √ pertenece a
la Yale Banylonian Collection, y que data de este perı́odo, da la aproximación de 2 , la cual
puede calcularse con algunos de los método que veremos más adelante

2.1 Método de bisección


Este método se basa en el Teorema del Valor Intermedio, el cual enunciamos a seguir.

Teorema 2.1 (del valor intermedio) Sea f : [a, b] −→ R una función continua. Supongamos
que f (a) y f (b) tienen signos diferentes, entonces existe r ∈ (a, b) tal que f (r) = 0 .

Aunque el procedimiento se aplica en el caso en que f (a) y f (b) tengan signos diferentes y
exista más de una raı́z en el intervalo (a, b) , por razones de simplicidad suponemos que la raı́z
de este intervalo es única. El método requiere dividir varias veces en la mitad los subintervalos
de [a, b] y en cada paso localizar aquella mitad que contenga a la raı́z r . Para comenzar
consideremos a0 = a y b0 = b , y sea c0 el punto medio de [a, b] , es decir, c0 = a0 +b 2
0
. Si
f (c0 ) = 0 , entonces r = c0 ; si no, entonces f (c0 ) posee el mismo signo que f (a0 ) o que
f (b0 ) . Si f (c0 ) y f (a0 ) tienen igual signo, entonces r ∈ (c0 , b0 ) y tomamos a1 = c0 y
b1 = b0 . Si f (c0 ) y f (a0 ) tienen signos opuestos, entonces r ∈ (a0 , c0 ) y tomamos a1 = a0
y b1 = c0 . Enseguida, volvemos a aplicar el proceso al intervalo [a1 , b1 ] , y ası́ sucesivamente.

A continuación describiremos algunos procedimientos de parada que pueden aplicarse en


algún paso del algoritmo, o a cualquiera de las técnicas iterativas que se estudian en este
capitulo. Se elige una tolerancia ε > 0 y generamos una sucesión de puntos p1 , p2 , . . . , pN ,
con pn −→ r hasta que se cumplan una de las siguientes condiciones

|pN − pN −1 |  ε (2.1)

24
Sergio Plaza 25

|pN − pN −1 |
 ε, pN = 0 (2.2)
|pN |

|f (pN )|  ε (2.3)

Al usar cualquiera de estos criterios de parada pueden surgir problemas. Por ejemplo, existen
sucesiones (pn )n∈N con la propiedad de que las diferencias pn −pn−1 convergen a cero, mientras
que la sucesión diverge, esto se ilustra con la sucesión siguiente, sea (pn )n∈N la sucesión dada
n
1
por pn = k , es conocido que (pn )n∈N diverge aún cuando se tiene lim (pn − pn−1 ) = 0 .
n→∞
k=1
También es posible que f (pn ) este cercano a cero, mientras que pn difiere significativamente
10
de r , como lo ilustra la siguiente sucesión. Sea f (x) = (x − 1) , tenemos que r = 1 , tomando
pn = 1 + n1 es fácil ver que |f (pn )| < 10−3 para todo n > 1 , mientras que |r − pn | < 10−3
sólo si n > 1000 . En caso que no se conozca r , el criterio de parada (2.2) es el mejor al cual
puede recurrirse, ya que verifica el error relativo.
Observe que para iniciar el algoritmo de bisección, tenemos que encontrar un intervalo [a, b] ,
de modo que f (a) · f (b) < 0 . En cada paso, la longitud del intervalo que se sabe contiene
una raı́z de f se reduce en un factor de 12 ; por lo tanto, conviene escoger un intervalo inicial
[a, b] lo mas pequeño posible. Por ejemplo, si f (x) = x2 − 1 , entonces f (0) · f (2) < 0 y
también f (0.75) · f (1.5) < 0 , de manera que el algoritmo de bisección puede emplearse en
ambos intervalos [0, 2] o [0.75, 1.5] . Al comenzar el algoritmo de bisección en [0, 2] o con
[0.75, 1.5] , la cantidad de iteraciones necesarias para alcanzar determinada exactitud varia.
El siguiente ejemplo ilustra el algoritmo de bisección. La iteración se termina cuando el error
relativo es menor que 0.0001 , es decir, cuando
|cn − cn−1 |
< 10−4 .
|cn |

Ejemplo 19 La ecuación f (x) = x3 + 4x2 − 10 posee una raı́z en [1, 2] ya que f (1) = −5 y
f (2) = 14 . El algoritmo de bisección puede ser resumido por la siguiente tabla

n an bn cn f (cn )
1 1.0 2.0 1.5 2.375
2 1.0 1.5 1.25 −1.79687
3 1.25 1.5 1.375 0.16211
.. .. .. .. ..
. . . . .
13 1.36499024 1.3671875 1.365112305 −0.00194

Después de 13 iteraciones, c13 = 1.365112305 aproxima a la raı́z r con un error de |r − c13 | <
|b13 − a13 | = 0.000122070 , ya que |a13 | < |r| , obtenemos

|r − c13 | |b13 − a13 |


<  9 × 10−5 ,
|r| |c13 |
por lo tanto la aproximación será correcta por lo menos en cuatro dı́gitos significativos. El valor
correcto de r con nueve cifras decimales correctas es r = 1.365230013 . Observe que r9 está
más cerca de r que c13 . Pero lamentablemente no podemos verificar esto si no conocemos la
respuesta correcta.
Sergio Plaza 26

El método de bisección, aunque claro desde el punto de vista conceptual, ofrece inconvenientes
importantes, como el de converger lentamente, es decir, la cantidad de iteraciones puede ser
demasiado grande para poder obtener que cn este lo próximo a r , además, inadvertidamente
podemos desechar una aproximación intermedia. Sin embargo, tiene la importante propiedad
de que siempre converge en una solución y por tal razón a menudo sirve para iniciar los métodos
más eficientes que explicaremos más adelante.

2.1.1 Análisis del error


Denotemos los intervalos generados por el método de bisección por [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] ,
. . . , de donde obtenemos que

a0  a1  · · ·  b 0

luego la sucesión (an )n∈N es creciente y acotada superiormente. Tenemos también que

b 0  b 1  · · ·  a0

luego la sucesión (bn )n∈N es decreciente y acotada inferiormente.


Por lo tanto existen los lı́mites limn→∞ an  b0 y limn→∞ bn  a0 . Además, como

1 1 1
b n − an = (bn−1 − an−1 ) = (bn−2 − an−2 ) = · · · = n (b0 − a0 ) ,
2 4 2
se sigue que limn→∞ (bn − an ) = 0 , luego limn→∞ bn = limn→∞ an = r . Ahora como
2
f (an ) f (bn )  0 , haciendo n → ∞ se tiene que (f (r))  0 , pues f es continua, de donde
f (r) = 0 .
Si el proceso se detiene en la iteración n , entonces f posee una raı́z en el intervalo [an , bn ]
y

|r − an |  2−n (b0 − a0 ) y |r − bn |  2−n (b0 − a0 ) .


an +bn
Por otra parte, vemos que una mejor aproximación para la raı́z r de f (x) = 0 es cn = 2 ,
pues

1
|r − cn |  (bn − an ) = 2−(n+1) (b0 − a0 ) .
2
Resumiendo lo anterior, tenemos el siguiente resultado.

Teorema 2.2 Sean [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] , . . . , [an , bn ] , . . . los intervalos obtenidos en el
método de bisección, entonces limn→∞ bn = limn→∞ an = r y r es una raı́z de f (x) = 0 .
Además, se tiene que |r − an |  2−n (b0 − a0 ) y |r − bn |  2−n (b0 − a0 ) . Por otra parte, si
cn = an +b
2
n
entonces r = limn→∞ cn y |r − cn |  2−(n+1) (b0 − a0 ) .

Es importante señalar que el teorema sólo nos proporciona una cota del error de aproxima-
ción y que esta puede ser extremadamente conservadora. Por ejemplo, cuando la aplicamos al
problema del ejemplo anterior sólo garantiza que |p − p9 |  2−1
29 ≈ 2 × 10
−3
pero el error real
−6
es mucho menor |p − p9 | ≈ 4.4 × 10 .
Sergio Plaza 27

Ejemplo 20 Para determinar el número de iteraciones necesarias para resolver la ecuación


f (x) = 0 donde f (x) = x3 + 4x2 − 10 con una exactitud de 10−3 en el intervalo [1, 2] basta
determinar un entero N tal que

|cN − r|  2−(N +1) (b − a) = 2−(N +1)  10−3 .

Aplicando logaritmo a la desigualdad 2−(N +1)  10−3 vemos que el valor del entero positivo
N debe ser mayor que 9.96 , por lo tanto para obtener una exactitud de 10−3 debemos iterar
al menos 10 veces.

2.2 Método de Newton


El método Newton es uno de los métodos numéricos más populares para tratar un problema de
búsqueda de raı́ces de una ecuación f (x) = 0 . Una forma de introducir el método de Newton
se basa en los polinomios de Taylor. En esta ocasión introduciremos el método de Newton
geométricamente.
Consideremos una función derivable f : [a, b] −→ R , que tiene un cero en [a, b] . Sea
x0 ∈ (a, b) un punto arbitrario.

x0
x1

x2

Para determinar la intersección x1 de la recta tangente al gráfico de f en el punto (x0 , f (x0 ))


con el eje x basta observar que dicha recta tiene por ecuación

y − f (x0 ) = f  (x0 ) (x − x0 )

ası́ la intersección con eje x está dada por −f (x0 ) = f  (x0 ) (x1 − x0 ) , despejando x1 obten-
emos

f (x0 )
x1 = x0 − ,
f  (x0 )
si f  (x0 ) = 0 . Aplicamos ahora este procedimiento comenzando con x1 , para determinar la
intersección x2 de la recta tangente al gráfico de f en el punto (x1 , f (x1 )) con el eje x basta
observar que dicha recta tiene por ecuación
Sergio Plaza 28

y − f (x1 ) = f  (x1 ) (x − x1 )

ası́ la intersección con eje x esta dada por −f (x1 ) = f  (x1 ) (x2 − x1 ) , despejando x2 obten-
emos

f (x1 )
x2 = x1 − ,
f  (x1 )

si f  (x1 ) = 0 . De modo análogo, si comenzamos con el punto x2 , obtenemos un punto x3


dado por

f (x2 )
x3 = x2 −
f  (x2 )

si f  (x2 ) = 0 , y ası́ sucesivamente. Este procedimiento da lugar a un proceso iterativo llamado


método de Newton, dado por

f (xn )
xn+1 = xn − (2.4)
f  (xn )

si f  (xn ) = 0 .

Ejemplo 21 Sea f (x) = x1 − 1 . La ecuación f (x) = 0 tiene una raı́z r = 1 en el intervalo


[0.5, 1] Qué ocurre al aplicar el método de Newton con x0 = 0.5 ? Realizando los cálculos
numericamente, tenemos

k 0 1 2 3 4
xk 0.5 0.75 0.9374999998 0.9960937501 0.9999847417

Un buen ejercicio para el lector es esbozar una explicación para lo que está ocurriendo en
este caso.

2.2.1 Análisis del Error

El error en el paso n es definido como

en = xn − r (2.5)

Supongamos ahora que f  es continua y que r es un cero simple de f , es decir, f (r) =


0 y f  (r) = 0 . Entonces tenemos que

f (xn ) f (xn ) f (xn ) en f  (xn ) − f (xn )


en+1 = xn+1 − r = xn − − r = (xn − r) − = e n − =
f  (xn ) f  (xn ) f  (xn ) f  (xn )

por otro lado se tiene que


Sergio Plaza 29

1
0 = f (r) = f (xn − en ) = f (xn ) − en f  (xn ) + e2n f  (ξn )
Taylor

2
donde ξn está entre xn y r . De esta última ecuación obtenemos

e2n
en f  (xn ) − f (xn ) = f  (ξn ) .
2
Luego

1 f  (ξn ) 2 1 f  (r) 2
en+1 = e ≈ e = Ce2n
2 f  (xn ) n
2 f  (r) n

f  (ξn )
Podemos formalizar lo anterior como sigue, si en es pequeño y f  (xn ) no es muy grande,
entonces en+1 será más pequeño que en .
Definamos

max |f  (x)|
1 |x−r|<δ
C (δ) = (2.6)
2 min |f  (x)|
|x−r|<δ

donde δ > 0 es tal que |f  (x)| > 0 para |x − r| < δ . Eligiendo δ > 0 más pequeño, si es
necesario, podemos

 suponer

que δ C (δ) < 1 , podemos hacer esto pues cuando δ −→ 0 se tiene

f (r)

que C (δ) −→
2f  (r)
, luego δ C (δ) −→ 0 si δ −→ 0 . Denotemos ρ = δ C (δ) . Comenzando
las iteraciones del método de Newton con x0 tal que |x0 −
r|< δ
obtenemos que |e0 |  δ y

(ξ0 )

|ξ0 − r| < δ luego por la definición de C (δ) , se tiene que


12 ff  (x 0)

 C (δ) de donde

|x1 − r| = |e1 |  e20 C (δ) = |e0 | |e0 | C (δ) = |e0 | ρ  |e0 |  δ,

repetimos el argumento con x1 , x1 , . . . , xn , . . . obteniendo

|e1 |  ρ |e0 |
|e2 |  |e1 | ρ  ρ2 |e0 |
..
.
|en |  ρn |e0 | −→ 0, cuando n −→ ∞

ası́ hemos obtenido el siguiente resultado.

Teorema 2.3 Si f  es continua y r es un cero simple de f , es decir, f (r) = 0 y f  (r) = 0 ,


entonces existe un intervalo abierto J conteniendo a r y una constante C > 0 tal que si el
método de Newton se inicia con un punto en J , se tiene

2
|xn+1 − r|  C (xn − r) .

Teorema 2.4 Si f  es continua, y f es creciente, convexa y tiene un cero, entonces este


cero es único y la iteración del método de Newton converge a él a partir de cualquier punto
inicial.
Sergio Plaza 30

El siguiente teorema sobre la conducta local del método de Newton muestra que ella es muy
buena, pero como veremos despues, desde el punto de vista global no lo es tanto.

Teorema 2.5 Sea f : R −→ R derivable. Si f  (x0 ) = 0 , definimos h0 = − ff(x 0)


(x0 ) , x1 =


0 )M

x0 + h0 , J0 = [x1 − |h0 |, x1 + |h0 |] y M = supx∈J0 |f  (x)|. Si 2


(ff (x
 (x ))2
< 1 entonces la
0

ecuación f (x) = 0 tiene una única solución en J0 y el método de Newton con condición inicial
x0 converge a dicha solución.

Demostración. Sea h1 = − ff(x 1) 


(x1 ) . Necesitamos estimar h1 , f (x1 ) y f (x1 ) . Tenemos
|f  (x0 )|
|f  (x1 )|  |f  (x0 )| − |f  (x0 ) − f  (x1 )|  |f  (x0 )| − M |x1 − x0 |  |f  (x0 )| − 12 |f  (x0 )|  2 ,
es decir,
|f  (x0 )|
|f  (x1 )|  (desigualdad 1)
2
Ahora estimaremos f (x1 ).
 x1
f (x1 ) = f (x0 ) + f  (x)dx
x0


x1
= f (x0 ) − [(x1 − x)f  (x)]
xx10 + (x1 − x)f  (x)dx
x0
 x1
= f (x0 ) + (x1 − x0 )f  (x0 ) + (x1 − x)f  (x)dx
x0

como h0 = x1 − x0 y f  (x0 )h0 = −f (x0 ), se tiene que


 x1
f (x1 ) = (x1 − x)f  (x)dx .
x0

Haciendo el cambio de variables th0 = x1 − x . Tenemos dx = −h0 dt , y


 1 2
2 M |h0 |
|f (x1 )|  M |h0 | tdt = .
0 2

es decir,
2
M |h0 |
|f (x1 )|  (desigualdad 2)
2
De las desigualdades (1) y (2), obtenemos






f (x1 )
M |h0 |2
2

|h1 | =




= |h0 |2
M

f (x1 )
2
f  (x0 )

f  (x0 )


(x0 )

y de 2
(fMf
 (x ))2
< 1 , tenemos
0


M
1
f  (x0 )
1 1 1


<


f  (x0 )
2
f (x0 )
= 2

f (x0 )

= 2|h0 | ,

f  (x0 )

|h0 |
luego |h1 | < 2 ,y
Sergio Plaza 31


M f (x1 )
M

f (x1 )

M


= =  |h1 |

(f  (x1 ))2


|f (x1 )| f (x1 )
|f (x1 )|

M |h0 |

|f  (x1 )| 2

|h0 | 2
f (x0 )

 M = M

2 |f  (x0 )|
(f  (x0 ))2
.

Definamos x2 = x1 + h1 y J1 = [x2 − |h1 |, x2 + |h1 |] . Tenemos que J1 ⊂ J0 , y las condiciones


del teorema se verifican para x1 , h1 , y J1 . Definimos, inductivamente hk = − ff(x k) 
(xk ) , si f (xk ) =
0 y xk+1 = xk + hk . Tenemos ası́ que xk ∈ J0 , y (xk )k∈N es una sucesión convergente, pues
la serie h0 + h1 + · · · converge. Además, el lı́mite xf = limk→∞ xk es una raı́z de la ecuación
f (x) = 0 , pues limk→∞ (f (xk ) + f  (xk )(xk+1 − xk )) = 0 .

Observación. La desigualdad hk+1  hk


2 , nos da la convergencia geométrica del método de
Newton.

Teorema 2.6 En las condiciones del teorema anterior, el método de Newton tiene convergen-
2
cia cuadrática, esto es, |hk+1 |  |f M
(xk )| |hk | .

M|hk |2
Demostración. Dividiendo la desigualdad |f (xk+1 )|  2 por |f  (xk+1 )| , obtenemos
2 2
|f (xk+1 | M |hk | 2 M |hk |
|kk+1 | = 
 
=  .
|f (xk+1 )| 2 |f (xk )| |f (xk )|

Ejemplo 22 Sea f (x) = x3 − 2x − 5 . Tomando x0 = 2 , tenemos f (x0 ) = −1 , f  (x0 ) = 10 ,



h

0 = 0.1
y J0 = [2 , 2.2] , puesto que f (x) = 6x sobre J0 el supremo M es 13.2. Como

Mf (x0 )

(f  (x0 ))2
= 0.132 < 0.5 < 1 , el teorema garantiza que existe una raı́z de la ecuación f (x) = 0
en el intervalo [2 , 2.2], y en consecuencia el método de Newton con condición inicial x0 = 2
converge a dicha raı́z.

Observación. Podemos usar como criterios de paradas unos de los siguientes. Seleccione
una tolerancia ε > 0 y construya p1 , p2 , . . . , pN hasta que se cumpla una de las siguientes
desigualdades

|pN − pN −1 |  ε (2.7)


pN − pN −1



 ε, pN = 0 (2.8)

pN

o bien

|f (xN )|  ε. (2.9)

El método de Newton es una técnica de iteración funcional de la forma xn+1 = g (xn ) , donde
Sergio Plaza 32

f (xn )
xn+1 = g (xn ) = Nf (xn ) = xn − , n  0.
f  (xn )

En esta ecuación se observa claramente que no podemos continuar aplicando el método de


Newton si f  (xn ) = 0 para algún n . Veremos que este método es más eficaz cuando f  (r) > 0 .

Verificación de condiciones de convergencia. Cuando queremos aplicar en la práctica


las condiciones de convergencia del método de Newton, tenemos el problema que no conocemos
exactamente la raı́z r de la ecuación f (x) = 0 . Recordemos que las condiciones de convergencia
del método de Newton en un intervalo abierto J r son: f (r) = 0 ; f  (r) = 0 y f  continua.
Para verificar que estas condiciones se cumplen cuando tomamos aproximaciones xn para la
raı́z r , y procedemos como sigue. Verificamos

1. f  es continua (esta condición depende sólo de la función f y no de las aproximaciones


a la raı́z).

2. Tomanos las aproximaciones xn dadas dadas por el método de Newton, y aplicando un


criterio de parada, obtenemos una aproximación xN .

3. Para xN verificamos que f (xN ) ≈ 0 y f  (xN ) = 0 .

4. Usando la continuidad de f y de sus derivadas, concluimos que existe un intervalo J


que contiene a r tal que si x0 ∈ J , entonces la sucesión de aproximaciones dada por el
método de Newton convergen a la raı́z r buscada.

Ejemplo 23 Para aproximar la solución de la ecuación x = cos(x) , consideremos f (x) =



cos(x)−x . Tenemos f π2 = − π2 < 0 < 1 = f (0) , luego y por el Teorema del Valor Intermedio,
 
existe un cero de f en el intervalo 0, π2 . Aplicando el método de Newton obtenemos

cos (xn ) − xn
xn+1 = xn − , n  0.
−sen (xn ) − 1

En algunos problemas es suficiente escoger x0 arbitrariamente, mientras que en otros es


importante elegir una buena aproximación inicial. En el problema en cuestión, basta analizar
las gráficas de h (x) = x y k (x) = cos (x) por lo que es suficiente considerar x0 = π4 , y ası́
obtenemos una excelente aproximación con sólo tres pasos, como muestra la siguiente tabla.

n xn
0 0.7853981635
1 0.7395361337
2 0.7390851781
3 0.7390851332
4 0.7390851332

Para asegurarnos que tenemos convergencia, verifiquemos esas condiciones. Tenemos que
f (x) = cos(x) − x , luego f  (x) = − cos(x) , la cual es continua, ahora evaluando f  (x) en el
punto x = 0.7390851332 (en radianes) que es una aproximación a la raı́z verdadera, se tiene el
valor no cero siguiente, f  (0.7390851332) = −sen(0.7390851332) − 1 = −1.012899111 . . . = 0 .
Sergio Plaza 33

Ejemplo 24 Para obtener una solución de la ecuación de x3 + 4x2 − 10 = 0 en el intervalo


[1, 2] mediante el método de Newton, generamos la sucesión (xn )n∈N dada por

x3n + 4x2n − 10
xn+1 = xn − , n0
3x2n + 8xn−1

Tomando x0 = 1.5 como condición inicial se obtiene el resultado x3 = 1.36523001 este es


correcto en ocho cifras decimales.
Para asegurarnos que tenemos convergencia, verifiquemos esas condiciones. Tenemos que
f (x) = x3 + 4x2 − 10 , luego f  (x) = 6x + 8 , la cual es continua. Ahora evaluando f  (x) en
el punto x3 = 1.36523001 , que es una aproximación a la raı́z verdadera, se tiene el valor no
cero siguiente, f  (1.36523001) = 3(1.36523001)2 + 8 · 1.36523001 = 16.1339902 . . . = 0 .


Ejemplo 25 Si queremos resolver x3 − x − 22 = 0 utilizando el método de Newton y comen-
zamos las√iteraciones con x0 = 0.001 obtenemos una sucesión que oscila entre valores cercanos
a 0 y a 22 , y de hecho, si comenzamos con la condición inicial x0 = 0 obtenemos el ciclo
√ √ √ 
2 2 2
periódico 0, 2 , es decir, Nf (0) = 2 y Nf 2 = 0 .

Observación. La derivación del método de Newton por medio de las series de Taylor, subraya
la importancia de una aproximación inicial exacta. La suposición fundamental es que el término
2
que contiene (x − x) es, en comparación, tan pequeño que podemos suprimirlo. Esto eviden-
temente serı́a falso a menos que x sea una buena aproximación a la raı́z r . En particular, si
x0 no es lo suficiente próximo a la raı́z real, el método de Newton quizá no sea convergente a
la raı́z. Pero no siempre es ası́. Por ejemplo considere la ecuación x2 + 1 = 0 que no tiene
soluciones reales, y cuando le aplicamos el método de Newton obtenemos, para cualesquiera que
sea la condición inicial una sucesión que no converge a ningún valor determinado, como puede
comprobarse en la práctica sin mayores esfuerzos, realizando las iteraciones correspondientes.

2.3 Método de Newton multivariable


Consideremos el sistema de ecuaciones


f1 (x1 , x2 ) = 0
(2.10)
f2 (x1 , x2 ) = 0.

Si (x1 , x2 ) es una solución aproximada y (x1 + h1 , x2 + h2 ) es la solución exacta, aplicando


Taylor obtenemos

⎪ ∂f1 ∂f1

⎪ 0 = f1 (x1 + h1 , x2 + h2 ) ≈ f1 (x1 , x2 ) + h1 + h2
⎨ ∂x 1 ∂x 2




⎩ 0 = f2 (x1 + h1 , x2 + h2 ) ≈ f2 (x1 , x2 ) + h1 ∂f2 + h2 ∂f2 .
∂x1 ∂x2

Denotemos el jacobiano de F (x1 , x2 ) = (f1 (x1 , x2 ) , f2 (x1 , x2 )) por J(f1 , f2 ) , es decir,


Sergio Plaza 34

⎛ ∂f ∂f1 ⎞
1
⎜ ∂x1 ∂x2 ⎟
⎜ ⎟
J(f1 , f2 ) = ⎜ ⎟, (2.11)
⎝ ∂f ∂f2 ⎠
2
∂x1 ∂x2

obtenemos    
h1 f1 (x1 , x2 )
J(f1 , f2 )(x1 , x2 ) =− (2.12)
h2 f2 (x1 , x2 )

de donde, si det(J(f1 , f2 )(x1 , x2 ) = 0 , se tiene que

   
h1 f1 (x1 , x2 )
= −J −1 (f1 , f2 ) (x1 , x2 )
h2 f2 (x1 , x2 )

con lo cual podemos definir el siguiente proceso iterativo


$ % $ %  
(k+1) (k)
x1 x1 h1
(k+1) = (k) + (2.13)
x2 x2 h2
 
h1
donde es la colución de la ecuaciónn lineal (2.12), esto puede ser escrito en forma más
h2
explı́cita como

⎛ ⎞ ⎛ ⎞ ⎛     ⎞−1 ⎛   ⎞
(k+1) (k) ∂f1 (k) (k) ∂f1 (k) (k) (k) (k)
x1 x1 ∂x1
x1 , x2 ∂x2
x1 , x2 f1 x1 , x2
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠=⎝ ⎠−⎜
⎝   

 ⎠

⎝ 

 ⎠
(k+1) (k) ∂f2 (k) (k) ∂f2 (k) (k) (k) (k)
x2 x2 ∂x1
x1 , x2 ∂x2
x1 , x2 f2 x1 , x2
(2.14)

Observe que esta formulación es, sin embargo, poco útil para realizar los cálculos, ya que es
poco práctico calcular la inversa de la matriz jacobiana. Sin embargo para sistemas de 2 × 2
es fácil obtener. Realizando las operaciones tenemos que

       
(n) (n) ∂f2 (n) (n) (n) (n) ∂f1 (n) (n)
f1 x1 , x2 x1 , x2 − f2 x1 , x2 x1 , x2
(n+1) (n) ∂x2 ∂x2
x1 = x1 − (n) (n)
det(J(f1 , f2 )(x1 , x2 ))
(2.15)
       
(n) (n) ∂f1 (n) (n) (n) (n) ∂f2 (n) (n)
f2 x1 , x2 x1 , x2 − f1 x1 , x2 x1 , x2
(n+1) (n) ∂x1 ∂x1
x2 = x2 − (n) (n)
det(J(f1 , f2 )(x1 , x2 ))

donde
  ∂f   ∂f   ∂f   ∂f  
(n) (n) 1 (n) (n) 2 (n) (n) 2 (n) (n) 1 (n) (n)
det J(f1 , f2 ) x1 , x2 = x1 , x2 · x1 , x2 − x1 , x2 · x1 , x2 .
∂x1 ∂x2 ∂x1 ∂x2
Sergio Plaza 35

Es claro que podemos generalizar el método de Newton a más de dos variables, y de deja
a cargo del lector deducir las fórmulas de iteración para un sistema de 3 ecuaciones en tres
variables (x, y, z) .

Condiciones de convergencia del método de Newton multivariable. Supongamos que


∂ 2 f1
f1 (r1 , r2 ) = f2 (r1 , r2 ) = 0 , det(J(f1 , f2 )(r1 , r2 )) = 0 y la derivadas parciales segundas ,
∂x21
∂ 2 f1 ∂ 2 f1 ∂ 2 f2 ∂ 2 f2 ∂ 2 f2
, 2 , 2 , , son continuas. Entonces existe un conjunto abierto
∂x1 ∂x2 ∂x2 ∂x1 ∂x1 ∂x2 ∂x22
0 0
U (r1 , r2 ) , tal que si (x1 , x2 ) ∈ U entonces el método de Newton comenzando con ese punto
converge a (r1 , r2 ) .

(0) (0)
Observación. En la práctica, comenzamos con (x1 , x2 ) adecuados y generamos la sucesión
dada por el método de Newton hasta satisfacer algún criterio de parada, obteniendo un punto
(N ) (N ) (N ) (N )
(x1 , x2 ) . Verificamos entonces las condiciones para ese punto, es decir, fi (x1 , x2 ) ≈ 0 ,
(N ) (N )
i = 1, 2 , det J(f1 , f2 )(x1 , x2 ) = 0 . La condición de continuidad de las segundas derivadas
parciales de f1 y f2 no depende de la sucesión de puntos generada. Si las condiciones son
(N ) (N )
satisfechas para (x1 , x2 ) , entonces existe un conjunto abierto U ⊂ R2 , con U (r1 , r2 ) ,
tal que si (x01 , x02 ) ∈ U , entonces la sucesión generada por el método de Newton converge a
(r1 , r2 ) .
Observación. En general, especialmente desde el punto de vista computacional, usar las ecua-
ciones (2.12) y (2.13) como una descompsición del método de Newton, en vez de las ecuaciones
dadas en (2.14) o en su forma explı́cita (2.15). Más genral si deseamaos resolver el sistema de
ecuaciones no lienales




f1 (x1 , x2 , . . . , xn ) = 0

⎨ f2 (x1 , x2 , . . . , xn ) = 0
.. (2.16)

⎪ .


fn (x1 , x2 , . . . , xn ) = 0
usamos el siguiente algoritmo:
(0) (0) (0)
Dado x(0) = (x1 , x2 , . . . , xn ) .
Primero: resolvemos el sistema de ecuaciones lineales
⎛ (k) ⎞ ⎛ (k) (k) (k)

h1 f1 (x1 , x2 , . . . , xn )
⎜ (k) ⎟ ⎜ (k) (k) (k) ⎟
⎜ h2 ⎟ ⎜ f2 (x1 , x2 , . . . , xn ) ⎟
⎜ ⎟ ⎜
Jk (f1 , f2 , . . . , fn ) ⎜ . ⎟ = − ⎜ ⎟ (2.17)
.. ⎟
⎝ .. ⎠ ⎝ . ⎠
(k) (k) (k) (k)
hn fn (x1 , x2 , . . . , xn )

(k) (k) (k)


para H (k) = (h1 , h2 , . . . , hn )T , donde Jk (f1 , f2 , . . . , fn ) denota el jacobiano de F =
(k) (k) (k)
(f1 , f2 , . . . , fn ) evaluado en el punto (x1 , x2 , . . . , xn ) .
Segundo. Realizamos la iteración

x(k+1) = x(k) + H (k) (2.18)


(k) (k) (k)
donde x(k) = (x1 , x2 , . . . , xn ) , y ası́ sucesivamente hasta satisfacer alguna condición de
parada.
Sergio Plaza 36

Ejemplo 26 Consideremos el siguiente sistema


⎧ 2 2
⎪ f (x, y) = x y − xy − 0.8 = 0



⎪ x2 x2
⎩ g (x, y) = − 1 − =0
y2 2

y encontremos sus raı́ces.


Aplicando el método de Newton multivariable, primero calculamos las derivadas parciales de
cada función obteniendo
∂f ∂f
= 2xy − y 2 = x2 − 2xy
∂x ∂y

∂g 2x ∂g 2x2
= 2 −x =− 3
∂x y ∂y y

aplicando la fórmula anterior nos queda

2 3
−3x2n yn + 2 (xn yn ) − 0.5 (xn yn ) − x2n yn4 − 1.6xn − xn yn3 + 2yn2
xn+1 =
xn yn (−6xn + 6yn + xn yn2 − 2yn3 )

2 3
−6x3n yn + 5 (xn yn ) + (xn yn ) − 1.5x2n yn4 + 2xn yn3 − yn4 − 1.6xn + 8xn yn2
yn+1 =
x2n (−6xn + 6yn + xn yn2 − 2yn3 )

La siguiente tabla muestra los resultados obtenidos con el método de Newton multivariable

Iter. x y f (x, y) g(x, y) |J|


0 1 1 −0.8 −0.5 −1
1 2.1 1.3 1.384 −0.59553 −14.7304
2 1.68036 1.11139 0.26257 −0.12583 −9.33548
3 1.55237 1.04843 0.02019 −0.01257 −7.94105
4 1.54040 1.04178 0.00016 −0.00011 −7.82963
5 1.54030 1.04173 1.06 × 10−8 −6.9 × 10−9 −7.82874
6 1.54030 1.04173 2.22 × 10−16 6.66 × 10−16 −7.82874

Se puede notar la rapidez a la cual converge el método, ya que en solamente 6 itera-


ciones se tiene un valor (x6 , y6 ) = (1.54030, 1.04173) para el cual f (1.54030, 1.04173) ≈ 0
y g (1.54030, 1.04173) ≈ 0 , por otra parte, es claro que las segundas derivadas parciales de f
y de g son continuas, pues ambas funciones son polinomios en las variables (x, y) . Tenemos
también que

∂f ∂f
(x6 , y6 ) = 2x6 y6 − y62 = 2.22631238 (x6 , y6 ) = x26 − 2x6 y6 = −0.85378829
∂x ∂y

∂g 2x6 ∂g 2x2
(x6 , y6 ) = 2 − x6 = 1.1401168538 (x6 , y6 ) = − 36 = −4.130734823
∂x y6 ∂y y6
Sergio Plaza 37

luego
 
2.22631238 − 0.85378829
det J(f, g)(x6 , y6 ) = det = −4.486785689 ,
1.1401168538 − 4.130734823

por lo tanto el método iterativo de Newton es convergente en una vecindad de la solución exacta
(xT , yT ) del sistema.

2.4 Método de la secante


El método de Newton es una técnica poderosa, pero presenta un problema, a saber, la necesidad
de conocer el valor de la derivada de f en cada paso de la aproximación. Con frecuencia es más
difı́cil calcular f  (x) y se requieren más operaciones aritméticas para calcularla que para f (x) .
Si queremos evitar el problema de evaluar la derivada en el método de Newton, derivamos una
pequeña variación. Por definición

f (x) − f (xn )
f  (xn ) = lim .
x→xn x − xn

Haciendo x = xn−1 , tenemos

f (xn−1 ) − f (xn ) f (xn ) − f (xn−1 )


f  (xn ) ≈ = .
xn−1 − xn xn − xn−1

Al aplicar esta aproximación para f  (xn ) en la formula de Newton, se obtiene el siguiente


método iterativo,

f (xn ) (xn − xn−1 )


xn+1 = xn − , n1
f (xn ) − f (xn−1 )

el cual depende siempre de los valores de dos iteraciones anteriores, y como valores iniciales se
tienen x0 y x1 , los cuales deben ser elegidos con cierto criterio para tener la convergencia del
método. Este método iterativo en llamado método de la secante.
Comenzando con las dos aproximaciones iniciales x0 y x1 , la aproximación x2 es la inter-
sección del eje x y la recta que une los puntos (x1 , f (x1 )) y (x0 , f (x0 )) . La aproximación x3
es la intersección con el eje x y la recta que une los puntos (x1 , f (x1 )) y (x2 , f (x2 )) , y ası́
sucesivamente.
Las condiciones para garantizar la convergencia del método de la secante en un intervalo
abierto J que contiene a la raı́z r de la ecuación f (x) = 0 , son las misma que se usan en
el método de Newton, es decir, f  debe ser continua y f  (r) = 0 , pero como en general no
conocemos r en forma exacta verificamos si f (xn ) ≈ 0 y f  (xn ) = 0 , donde xn es nuestra
aproximación a la raı́z.
El siguiente ejemplo incluye un problema que vimos en un ejemplo anterior.

Ejemplo 27 Usando el método de la secante determinemos una raı́z de f (x) = cos(x) − x .


En el ejemplo desarrollado anteriormente, usamos la aproximación inicial x0 = π4 . Ahora
Sergio Plaza 38

necesitamos dos aproximaciones iniciales. En la siguiente tabla aparecen los cálculos con x0 =
0.5 y x1 = π4 , y la fórmula

(xn − xn−1 ) (cos (xn ) − xn )


xn+1 = xn − , n  1.
(cos (xn ) − xn ) − (cos (xn−1 ) − xn−1 )

n xn
0 0.5
1 0.7853981635
2 0.7363841388
3 0.7390581392
4 0.7390851493
5 0.7390851332

Observación. Al comparar los resultados de ahora con los del ejemplo anterior observamos
que x5 es exacto hasta la décima cifra decimal. Nótese que la convergencia del método de la
secante es un poco más lenta en este caso que en el método de Newton, en el cual obtuvimos
este grado de exactitud con x3 . Este resultado generalmente es verdadero.

El método de Newton o el método de la secante a menudo se usan para refinar las respuestas
conseguidas con otra técnica, como el método de bisección. Dado que el método de Newton
requiere de una buena aproximación inicial, pero por lo general da una convergencia más rápida,
sirve perfectamente para el propósito antes mencionado.

2.4.1 Análisis del error


Recordemos que el error en el paso n es definido como en = xn − r . Ahora como

(xn − xn−1 ) xn−1 f (xn ) − xn f (xn−1 )


xn+1 = xn − f (xn ) =
f (xn ) − f (xn−1 ) f (xn ) − f (xn−1 )

obtenemos

en+1 = xn+1 − r
xn−1 f (xn ) − xn f (xn−1 )
= −r
f (xn ) − f (xn−1 )
f (xn )(xn−1 − r) − f (xn−1 )(xn − r)
=
f (xn ) − f (xn−1 )
f (xn )en−1 − f (xn−1 )en
=
f (xn ) − f (xn−1 )

podemos escribir ahora

f (xn ) f (xn−1 )
xn − xn−1 en − en−1
en+1 = en en−1 .
f (xn ) − f (xn−1 ) xn − xn−1
Sergio Plaza 39

Aplicando Taylor tenemos que

e2
f (xn ) = f (r + en ) = f (r) +en f  (r) + n f  (r) ,
   2
=0

f (xn ) f (xn−1 )
luego en ≈ f  (r) + en 
2 f (r) y en−1 ≈ f  (r) + en−1 
2 f (r) de donde

f (xn ) f (xn−1 ) 1
− ≈ (en − en−1 ) f  (r) .
en en−1 2
Observemos que xn − xn−1 = en − en−1 , por lo tanto

f (xn ) f (xn−1 )
en − en−1 1 
≈ f (r)
xn − xn−1 2

y como xn −xn−1 ∼
= 1
, finalmente tenemos
f (xn )−f (xn−1 ) f  (r)

1 f  (r)
en+1 ≈ en en−1 = Cen en−1 (2.19)
2 f  (r)

2.5 Método de la posición falsa


Este método es conocido también como método de Regula Falsi, con el generamos aproxima-
ciones del mismo modo que el de la secante, pero mezclado con el método de bisección, ofrece
por lo tanto una prueba para asegurarse de que la raı́z quede entre dos iteraciones sucesivas.
Primero elegimos las aproximaciones iniciales x0 y x1 con f (x0 ) · f (x1 ) < 0 . La aprox-
imación x2 se escoge de la misma manera que en el método de la secante. Para determinar
con cual secante calculamos x3 verificamos el signo de f (x2 ) · f (x1 ) , si este valor es negativo
entonces [x1 , x2 ] contiene una raı́z y eligiremos x3 como la intersección del eje x con la recta
que une (x1 , f (x1 )) y (x2 , f (x2 )) ; si no elegimos x3 como la intersección del eje x con la
recta que une (x0 , f (x0 )) y (x2 , f (x2 )) .

Ejemplo 28 La siguiente tabla contiene los resultados del método de Regula Falsi aplicado a
la función f (x) = cos(x) − x con las mismas aproximaciones iniciales que utilizamos para el
método de la secante en el Ejemplo 27. Nótese que las aproximaciones son iguales en x3 y que
en el método de Regula Falsi requiere una iteración más para alcanzar la misma exactitud que
la de la Secante.

2.6 Métodos iterativos de punto fijo


Describimos ahora otro tipo de métodos para encontrar raı́ces de ecuaciones, nos referimos a
algunos métodos iterativos de punto fijo.
Un punto fijo de una función g es un punto p para el cual g (p) = p . En esta sección
estudiaremos el problema de encontrar las soluciones a los problemas de punto fijo y la conexión
entre estos y la búsqueda de la raı́z que deseamos resolver.
Sergio Plaza 40

n xn
0 0.5
1 0.7353981635
2 0.7363841388
3 0.7390581392
4 0.7390848638
5 0.7390851305
6 0.7390851332

El problemas de búsqueda de raı́ces y el problema de punto fijo son clases equivalentes en el


siguiente sentido

“Dado un problema de buscar una raı́z de f (x) = 0 , podemos definir una función g con
un punto fijo en p de diversas formas; por ejemplo, como g (x) = x − f (x) o como g (x) =
x + 3f (x) . Si la función g tiene un punto fijo en p , es decir, g(p) = p , entonces la función
definida, por ejemplo, como g (x) = x+f (x) o más general g(x) = x+ψ(x)f (x) , con ψ(p) = 0 ,
tiene un cero en p ”.

Aunque los problemas que deseamos resolver vienen en forma de búsqueda de raı́ces, la forma
de método iterativo de punto fijo puede ser más fácil de analizar; algunas opciones de punto
fijo dan origen a técnicas poderosas de búsqueda de raı́ces.
Lo primero que debemos de hacer es acostumbrarnos a este tipo de problema, y decidir cuando
una función tiene un punto fijo y cómo podemos aproximar los puntos fijos con determinado
grado de precisión.

Ejemplo 29 Resolver la ecuación 3x2 − ex = 0 es equivalente a 3x2 = ex . Graficamente,


vemos que existe una solución x > 0 , la cual es la intersección de los gráficos de las funciones
f (x) = 3x2 y g(x) = ex .

10

6
y
4

0 0.5 1 1.5 2 2.5 3


x

gráfico de f (x) = 3x2 y g(x) = ex

ex
Despejando, obtenemos las funciones x = ψ1 (x) = log(3x2 ) , x = ψ2 (x) = 3x , x = ψ3 (x) =

3 x/2
3 e , etc.
Sergio Plaza 41

4
3.5

3 3

2.5
2
2

1 1.5

0 1 1.5 2 2.5 3 3.5 4 0.5


x
0.5 1 1.5 2 2.5 3
x
x
gráfico de ψ1 (x) = log(3x2 ) gráfico de ψ2 (x) = e
3x

2.5

1.5

0.5

0.5 1 1.5 2 2.5 3


x

3 x/2
gráfico de ψ3 (x) = 3 e

Ejemplo 30 La función g (x) = x2 − 2 para −2 < x < 3 , posee puntos fijos en x = −1 y


x = 2 , como se puede ver fácilmente resolviendo la ecuación cuadrática g(x) = x .

4
y
2

–2 –1 0 1 2 3
x
–2

–4

–6

gráfico de g(x) = x2 − 2

Para el problema de existencia de punto fijo, tenemos el siguiente resultado.

Teorema 2.7 Sea g : [a, b] −→ [a, b] una función continua, entonces g posee un punto fijo
en [a, b] .

Demostración. Usamos el Teorema del Valor Intermedio, para lo cual definimos la función
h(x) = g(x) − x . Tenemos, h(a) = g(a) − a  0 y h(b) = g(b) − b  0 , y siendo h continua,
se sigue existe c ∈ [a, b] tal que h(c) = 0 , es decir, g(c) = c .
Sergio Plaza 42

El siguiente teorema contiene condiciones suficientes para la existencia y unicidad del punto
fijo.

Corolario 2.1 Supongamos que g : [a, b] −→ [a, b] es continua en [a, b] y derivable en (a, b) .
Supongamos también que existe una constante positiva 0  λ < 1 con |g  (x)|  λ , para todo
x ∈ (a, b) ( λ = max{|g  (x)| : x ∈ [a, b] } ), entonces el punto fijo xg de g en [a, b] es único.
Además, si elegimos x0 ∈ (a, b) arbitrario, entonces la sucesión (xn )n∈N definida por

xn+1 = g(xn ), n  0

converge al único punto fijo xg de g .


Más general, si g : [a, b] −→ [a, b] es tal que |g(x) − g(y()|  λ|x − y| para todo x, y ∈ [a, b] ,
con 0  λ < 1 , entonces g tiene un único punto fijo xg ∈ [a, b] . Además, dado x0 ∈ [a, b] , la
sucesión
xn+1 = g(xn ), n  0

converge a xg .

Demostración. Por el teorema anterior sabemos que g tiene un punto fijo. Ahora como
|g  (x)|  λ < 1 , por el Teorema del Valor Medio, tenemos

|g(x) − g(y)| = |g  (c)| |x − y|  λ|x − y|

para todo x, y ∈ [a, b] , donde c está entre x e y . Ahora bien, supongamos que existen dos
puntos fijos xg y xg para g . Tenemos entonces que

|xg − xg | = |g(xg ) − g(xg )|  λ|xg − xg |

y como 0  λ < 1 , se debe tener que xg = xg .


Ahora, tenemos

|xn − xg | = |g(xn−1 ) − g(xg )|  λ|xn−1 − xg |

|xn−1 − xg | = |g(xn−2 ) − g(xg )|  λ|xn−2 − xg |

|xn−2 − xg | = |g(xn−3 ) − g(xg )|  λ|xn−3 − xg |

..
.
|x1 − xg | = |g(x0 ) − g(xg )|  λ|x0 − xg | ,

de donde obtenemos que |xn − xg |  λn |x0 − xg | y como λn −→ 0 cuando n −→ ∞ , el


resultado se sigue.

Observación. El teorema anterior no sólo nos dice que bajo sus condiciones existe un punto
fijo único, además nos dice cómo podemos encontrarlo, usando la sucesión generada a partir de
la función g con una condición inicial arbitraria.
Sergio Plaza 43

Corolario 2.2 Si g satisface las hipótesis del Teorema anterior, cotas para el error que supone
utilizar xn para aproximar xg son dadas por

|xn − xg |  λn max {x0 − a, b − x0 }

y
λn
|xn − xg |  |x1 − x0 | .
1−λ

Demostración. Para tener la primera de las cotas, sólo basta observar que |xn − xg | 
λn |x0 − xg | y como xg y x0 están entre a y b se tiene que |xn − x0 |  λn |xg − x0 | 
λn max {x0 − a, b − x0 } , como querı́amos probar.
Para obtener la segunda cota observemos que si n > m , digamos n = m + k , con k  1 ,
entonces

|xn − xm | = |xm+k − xm |  |xm+k − xm+k−1 | + |xm+k−1 − xm+k−2 | + · · · + |xm+1 − xm | (2.20)

Por otra parte tenemos que

|xn+1 − xn | = |g(xn ) − g(xn−1 )|


 λ|xn − xn−1 |
 λ|g(xn−1 ) − g(xn−2 )|
 λ2 |xn−1 − xn−2 |
 λ2 |g(xn−2 ) − g(xn−3 )|
 λ3 |xn−2 − xn−3 |
..
.
 λn |x1 − x0 | ,

es decir, |xn+1 − xn |  λn |x1 − x0 | para todo n  0 . Aplicando esto a la desigualdad en (2.20)


obtenemos

|xn − xm | = |xm+k − xm |  λm+k−1 |x1 − x0 | + λm+k−2 |x1 − x0 | + · · · + λm |x1 − x0 |


= λm |x1 − x0 | (λk−1 + λk−2 + · · · + 1)
 λm |x1 − x0 | (1 + λ2 + · · · + λj + · · · )
λm
= |x1 − x0 |
1−λ

como deseábamos probar.


Observación Ambas desigualdades del Corolario relacionan la razón con la que (xn )n∈N
converge en la cota λ de la primera derivada. La razón de convergencia depende del factor
λn . Cuando más pequeño sea el valor de λ , más rápida será la convergencia, la cual puede ser
Sergio Plaza 44

muy lenta sı́ λ es próxima de 1. En el siguiente ejemplo, consideraremos los métodos de punto
fijo para algunos de los ejemplos vistos anteriormente.

Observación. Podemos usar como criterio de parada de un método iterativo de punto


fijo como los anteriores los siguientes. Sea ε > 0 una tolerancia dada, entonces paramos las
iteraciones si

1. λn max {x0 − a, b − x0 }  ε ,
λn
2. 1−λ |x1 − x0 |  ε,

3. |xn+1 − xn |  ε

4. otros que sean razonables de aplicar.

Ejemplo 31 Sea g (x) = x 3−1 en [−1, 1] . El mı́nimo absoluto de g se alcanza en x = 0 y se


2

tiene que g (0) = − 31 . De manera análoga el máximo




absoluto de g se alcanza en x = ±1 y
g (±1) = 0 . Además, g es derivable y |g  (x)| =
2x3

 2 para todo x ∈ (−1, 1) , luego g (x)
3
satisface las hipótesis del Teorema 2.1, en consecuencia g (x) posee un único punto fijo xg
en [−1, 1] , y si elegimos x0 ∈ ] − 1, 1[ arbitrario, la sucesión de puntos xn+1 = g(xn ) −→ xg
cuando n → ∞ .

0.4

y
0.2

–1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1


x
–0.2

–0.4

x2 −1
gráfico de g(x) = 3

En este ejemplo el punto fijo p puede ser determinado algebraicamente por medio de la
g (p) = p 3−1 , de donde p2 −
2
fórmula para resolver ecuaciones cuadráticas, obteniéndose p =

1

3p − 1 = 0 y resolviendo
√ la ecuación obtenemos que p = 2 3 − 13 ≈ −0.3027756377 , la otra
1
raı́z es q = 2 (3 + 13) ≈ 3.302775638 que está fuera del intervalo [−1, 1] . El lector puede
verificar esto usando x0 = 0 y ε = 10−5 .


Observación. Note que g (x) también posee un punto fijo único q = 12 3 + 13 en el
intervalo [3, 4] . Sin embargo, g  (q) > 1 , ası́ que g no satisface las hipótesis del Teorema en
[3, 4] . Esto demuestra que esas hipótesis son suficientes pero no necesarias.

Ejemplo 32 Sea g(x) = 3−x . Puesto que g  (x) = −3−x ln 3 < 0 en [0, 1] , la función es
decreciente en ese intervalo. Por lo tanto g (1) = 13  g (x)  1 = g (0) para todo x ∈ [0, 1] ,
por lo cual g posee un punto fijo. No podemos garantizar la unicidad del punto fijo usando el
Teorema 2.1, sin embargo como g es estrictamente decreciente dicho punto fijo debe ser único.
Sergio Plaza 45

0.9

0.8

0.7

0.6

0.5

0.4

0.3
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
−x
gráfico de g(x) = 3

Ejemplo 33 La ecuación x3 + 4x2 − 10 = 0 posee una única raı́z en [1, 2] . Hay muchas
formas para convertir dicha ecuación en la forma x = g (x) mediante simple manejo algebraico.
Por ejemplo, para obtener la función que se describe en (c), podemos manipular ecuación

x3 + 4x2 − 10 = 0 , por ejemplo, podemos escribir 4x2 = 10 − x3 , por lo tanto x2 = 14 10 − x3
1/2
, luego x = g3 (x) = ± 21 10 − x3 .
Para obtener una solución positiva, elegimos g3 (x) con el signo positivo. Se deja al lector
deducir las funciones que se indica a continuación, pero debemos verificar que el punto fijo de
cada una sea realmente una solución de la ecuación original x3 + 4x2 − 10 = 0 .

(a) x = g1 (x) = x − x3 − 4x2 + 10.


1/2
(b) x = g2 (x) = 10x − 4x .
1/2
(c) x = g3 (x) = 12 10 − x3 .
 1/2
10
(d) x = g4 (x) = 4+x

x3 +4x2 −10
(e) x = g5 (x) = x − 3x2 +8x .

Con p0 = 1.5 la siguiente tabla proporciona los resultados del método de iteraciones de punto
fijo para las cinco opciones de g .
La raı́z exacta es r = 1.365230013 . . . , según se señalo anteriormente. Al comparar los
resultados del algoritmo de bisección aplicado para resolver la misma ecuación, observamos
que se obtuvieron excelentes resultados con las opciones (3), (4) y (5), ya que el método de
bisección requiere 27 iteraciones para garantizar la exactitud. Conviene señalar que la opción
(1) ocasiona divergencia y que la opción (2) se torna indefinida en R ya que contiene la raı́z
cuadrada de un número negativo.

Aún cuando las funciones de este ejemplo son problemas de punto fijo para el mismo pro-
blema de búsqueda de raı́z, difieren como métodos para aproximar la solución a este tipo de
problemas. Su propósito es ilustrar la pregunta que es preciso responder a la siguiente pregunta
Cómo podemos encontrar un problema de punto fijo capáz de producir una sucesión convergente
rápidamente a una solución de un problema de búsqueda de raı́z?
Los siguientes ejemplos nos dan algunas pistas sobre los procedimientos que deberı́amos seguir
y quizá lo más importante, algunos que debemos excluir.
Sergio Plaza 46

n g1 g2 g3 g4 g5
0 1.5 1.5 1.5 1.5 1.5
1 -0.875 0.8165 1.286953768 1.348399725 1.373333333
2 6.732 2.9969 1.402540804 1.367376372 1.365230015
3 -469.7 (−8.65)1/2 1.345458374 1.364957015 1.365230014
4 1.03 × 108 1.375170253 1.365264748 1.365230013
5 1.360094193 1.365225594
6 1.367846968 1.36523.576
7 1.363887004 1.365229942
8 1.365916734 1.365230022
9 1.364878217 1.365230012
10 1.365410062 1.365230014
15 1.365223680 1.365230013
20 1.365230236
25 1.365230006
30 1.365230013

Ejemplo 34 Cuando g1 (x) = x − x3 − 4x2 + 10 , tenemos que g1 (x) = 1 − 3x2 − 8x . No


existe un intervalo [a, b] que contenga a la raı́z r para el cual se tenga |g1 (x)| < 1 . Aunque el
Teorema 2.1 no garantiza que el método deba fallar para esta elección, tampoco tenemos razón
para esperar que el método sea convergente.

10

5
x
–4 –3 –2 –1 1 2

–5

–10

gráfico de g1 (x) = x − x3 − 4x2 + 10

1/2
Ejemplo 35 Con x = g2 (x) = 10 x − 4x , podemos ver que g2 no aplica [1, 2] en [1, 2] y
que la sucesión (xn )n∈N no está definida para x0 > 1.58113883 . . . . Además, tampoco existe
un intervalo que contenga a r para el cual |g2 (x)| < 1 , pues |g2 (r)| ≈ 3.4 .
Sergio Plaza 47

1.8

1.6
y
1.4

1.2

1 1.2 1.4 1.6 1.8 2


x
10 1/2
gráfico de g2 (x) = x − 4x

1/2 −1/2
Ejemplo 36 Para x = g3 (x) = 12 10 − x3 , tenemos que g3 (x) = − 34 x2 10 − x3 <0
en [1, 2] , ası́ que g3 es estrictamente decreciente en [1, 2] . Sin embargo |g3 (2)| ≈ 2.12 por
lo cual la condición |g3 (x)|  λ < 1 falla en [1, 2] . Un análisis más minucioso de la sucesión
(xn )n∈N con p0 = 1.5 revela que basta considerar el intervalo [1, 1.5] en vez de [1, 2] . En este
intervalo la función sigue siendo estrictamente decreciente, pero además 1 < 1.28 ≈ g3 (1.5) 
g3 (x)  g3 (1) = 1.5 para todo x ∈ [1, 1.5] en vez de [1, 2] . Esto demuestra que g3 aplica
el intervalo [1, 1.5] en si mismo. Además |g3 (x)|  0.66 < 1 , por lo cual el Teorema 2.1 nos
garantiza la unicidad del punto fijo y la convergencia del método iterativo.

1.8

1.6
y
1.4

1.2

1 1.2 1.4 1.6 1.8 2


x
1/2
gráfico de g3 (x) = 12 10 − x3

 1/2

10
−5
√ 5
Ejemplo 37 Para x = g4 (x) = 4+x , tenemos |g4 (x)| =
√10(4+x) 3/2

10(5)3/2
< 0.15
para todo x ∈ [1, 2] . La cota en la magnitud de g4 es mucho menor que magnitud de g3 lo


cual explica la convergencia mas rápida que se obtiene con g4 .


Sergio Plaza 48

1.8

1.6
y
1.4

1.2

1 1.2 1.4 1.6 1.8 2


x
 1/2
10
gráfico de g4 (x) = 4+x

2.7 Métodos iterativos de punto fijo en varias variables


Extendemos ahora el resultado de convergencia métodos iterativos de punto fijo a funciones de
varias variables. Para ellos tenemos el siguiente teorema.

Teorema 2.8 Sea C ⊆ Rn un conjunto cerrado y acotado, y sea F : C −→ Rn una


función continua. Supongamos que F (C) ⊆ C , entonces F posee un punto fijo. Además,
si JF (x)  λ < 1 para todo x ∈ C entonces el punto fijo es único, y el proceso iterativo

xn+1 = F (xn ) , n  0.

con x0 ∈ C arbitrario, converge al único punto fijo.

Demostración. Basta demostrar el siguiente resultado más débil .


Introducimos el siguiente concepto, que nos ayudara en los siguientes teoremas.

Definición 2.1 Sea A ⊂ Rn . Decimos que una función F : A −→ Rn es una contracción si


existe una constante 0  λ < 1 tal que para cada x, y ∈ A se tiene que

F (x) − F (y)  λx − y.

La menor constante λ que satisface la desigualdad anterior es llamada la constante de Lip-


schitz de F .

Teorema 2.9 Sea A ⊂ Rn un conjunto cerrado y acotado, y sea F : A −→ Rn una con-


tracción, tal que F (A) ⊆ A , entonces F tiene un único punto fijo en A . Además, dado
x0 ∈ A arbitrario, la sucesión (xn )n∈N definida por xn+1 = F (xn ) , con n  0 , converge al
único punto fijo xF de F . Además, si elegimos xN como una aproximación a xF , entonces
se tiene
λN
||xN − xF ||  ||x0 − x1 || (2.21)
1−λ

Demostración. Tenemos que F (x) − F (y)  λx − y para todo x, y ∈ A . Vamos a


demostrar que dado x0 ∈ A arbitrario se tiene que la sucesión (xn )n∈N definida por xn+1 =
Sergio Plaza 49

F (xn ), n  0 , es una sucesión de Cauchy, y siendo A cerrado y acotado ella es una sucesión
convergente, cuyo lı́mite es un punto fijo de F . Tenemos

xn+1 − xn  = F (xn ) − F (xn−1 )


 λxn − xn−1 
 λF (xn−1 ) − F (xn−2 )
 λ2 xn−1 − xn−2 
= λ2 F (xn−2 ) − F (xn−3 )
 λ3 xn−2 − xn−3 
..
.
 λn x1 − x0  ,

es decir, xn+1 − xn   λn x1 − x0  y como 0  λ < 1 se sigue que xn+1 − xn  −→ 0


cuando n −→ ∞ . Ahora sean m > n , digamos m = n + k , con k  1 . Tenemos

xn+k − xn   xn+k − xn+k−1  + xn+k−1 − xn+k−2  + · · · + xn+1 − xn 


 (λn+k−1 + λn+k−2 + · · · + λn )x1 − x0 
= λn (λk−1 + λk−2 + · · · + 1)x1 − x0 
 λn (1 + · · · + λk−2 + λk−1 + · · · )x1 − x0 
λn
= x1 − x0 
1−λ
esto es,
λn
xn+k − xn   x1 − x0 
1−λ
y como limn→∞ λn = 0 se sigue que (xn )n∈N es una sucesión de Cauchy, por lo tanto es una
sucesión convergente. Sea xF = limn→∞ xn . Ahora como F es una contracción es continua,
y xF = limn→∞ xn+1 = limn→∞ F (xn ) = F (limn→∞ xn ) = F (xF ) . Finalmente, supongamos
que existen dos puntos fijos para F , digamos, xF y xF , entonces

xF − xF  = F (xF ) − F (xF )  λxF − xF 

y siendo 0  λ < 1 , se tiene que xF = xF .

2.7.1 Análisis de error para métodos iterativos de punto fijo

En esta sección estudiaremos el orden de convergencia de los esquemas de iteración funcional


y con el propósito de obtener una rápida convergencia, redescubriremos el método de Newton.
También estudiaremos los métodos para acelerar la convergencia de Newton en casos especiales.
Para poder realizar lo antes mencionado necesitamos un procedimiento para medir la rapidez
con la que converge una sucesión dada.
Sergio Plaza 50

Definición 2.2 Supongamos que (pn )n∈N es una sucesión que converge a p , con pn = p para
todo n suficientemente grande. Si existen constantes positivas α y λ tales que
|pn+1 − p|
lim α =λ (2.22)
n→∞ |pn − p|

decimos que la convergencia a p de la sucesión (pn )n∈N es de orden α con constante de error
asintótica λ .

Observación. De la definción de orden de convergencia (2.22), si n es suficientemente grande,


entonces
|pn+1 − p|
≈ λ ⇐⇒ |pn+1 − p| ≈ λ |pn − p|α .
|pn − p|

Definición 2.3 Decimos que un método iterativo de punto fijo xn+1 = g(xn ) es de orden α
con constante de error asintótica λ si, la sucesión (xn )n∈N , donde xn+1 = g(xn ) , con n  0 ,
es orden α con constante de error asintótica λ .

Observación. En general una sucesión con un orden de convergencia alto, converge más
rápidamente que una con un orden de convergencia más bajo. La constante asintótica influye
en la rapidez de la convergencia, pero no es tan importante como el orden de convergencia.

Respecto al orden de convergencia, hay dos que son de interés.

1. Si α = 1 , la sucesión será linealmente convergente.

2. Si α = 2 , la sucesión será cuadráticamente convergente.

En el siguiente ejemplo se compara una sucesión linealmente convergente con una de orden
cuadrático.

Ejemplo 38 Supongamos que (pn )n∈N y (p̂n )n∈N convergen a cero, siendo la convergencia
de (pn )n∈N lineal con limn→∞ |p|pn+1
n|
|
= 0.5 y la convergencia de (p̂n )n∈N es cuadrática con
limn→∞ ||p̂p̂n+1 |
2 = 0.5 . Por razones de simplicidad supongamos que
|p̂n+1 |
≈ 0.5 y que |pn+1 |
|pn | ≈
n| |p̂n |2
0.5 . Ası́ en la convergencia lineal obtenemos que

2 3 n
|pn − 0| = |pn | ≈ 0.5 |pn−1 | ≈ (0.5) |pn−2 | ≈ (0.5) |pn−3 | ≈ · · · ≈ (0.5) |p0 | ,

mientras que en la convergencia cuadrática se tiene que


n n
|p̂n − 0| = |p̂n | ≈ 0.5 |p̂n−1 |2 ≈ 0.5 (0.5|p̂n−2|2 )2 = (0.5)3 |p̂n−2 |2 ≈ · · · ≈ (0.5)2 −1
|p̂0 |2 .
2

Claramente esta última converge más rápido que la primera.


La siguiente tabla muestra la rapidez de la convergencia lineal y cuadrática cuando |p0 | =
|p̂0 | = 1 .
La sucesión con convergencia cuadrática es del orden de 10−38 en el séptimo término. Por
otra parte, se necesitan 126 términos por lo menos para poder garantizar esta precisión en la
sucesión con convergencia lineal.
Sergio Plaza 51

n Lineal Cuadrática
1 5.0000 ×10−1 5.0000 ×10−1
2 2.5000 ×10−1 1.2500 ×10−1
3 1.2500 ×10−1 7.8125 ×10−3
4 6.2500 ×10−2 3.0518 ×10−5
5 3.1250 ×10−2 4.6566 ×10−10
6 1.5625 ×10−2 1.0842 ×10−19
7 7.8125 ×10−3 5.8775 ×10−39

Teorema 2.10 (orden de convergencia de punto fijo) Sea g : [a, b] −→ [a, b] continua.
Supongamos que g  es continua en ]a, b[ y que existe una constante positiva 0  λ < 1 tal que
|g  (x)|  λ para todo x ∈ ]a, b[ . Si g  (p) = 0 , entonces para cualquier punto p0 ∈ [a, b] la
sucesión
pn = g (pn−1 ) , n  1
converge linealmente al único punto fijo p ∈ [a, b] .

Observación. El teorema anterior establece que en el caso de los métodos de punto fijo, la
convergencia de orden superior sólo puede ocurrir si g  (p) = 0 . El siguiente resultado describe
otras condiciones que garantizan la convergencia cuadrática que deseamos.

Teorema 2.11 Sea p un punto fijo de g (x) . Supongamos que g  (p) = 0 y que g  es
continua y acotada por M en un intervalo abierto que contiene a p . Entonces existe δ > 0 tal
que para p0 ∈ [p − δ, p + δ] la sucesión definida por pn = g (pn−1 ) , con n  1 , converge al
menos cuadráticamente a p . Además, para valores suficientemente grandes de n se tiene que
M 2
|pn+1 − p| < |pn − p| .
2

Los teoremas anteriores nos indican que nuestra investigación de los métodos de punto fijo
cuadráticamente convergentes deberı́an conducirnos a funciones cuyas derivadas son anulan en
el punto fijo.
La manera más fácil de plantear un problema de punto fijo relacionado con la búsqueda de
raı́ces de f (x) = 0 consiste en restar un múltiplo de f (x) (que desaparecerá en la raı́z). Por
lo tanto, a continuación consideraremos un método iterativo de punto fijo de la forma

pn = g (pn−1 ) , n  1,

con g es de la forma

g (x) = x − φ (x) f (x) ,

donde φ (x) es una función derivable, y sobre la cual imponemos condiciones más adelante.
Para que el procedimiento iterativo dado por g sea cuadráticamente convergente, es necesario
tener que g  (p) = 0 . Dado que

g  (x) = 1 − φ (x) f (x) − f  (x) φ (x)


Sergio Plaza 52

y como f (p) = 0 tenemos que

g  (p) = 1 − f  (p) φ (p)


1
entonces g  (p) = 0 si y sólo si φ (p) = f  (p) .
Es razonable suponer que φ(x) = f 1(x) , lo cual garantizará que φ (p) = 1
f  (p) . En este caso,
el procedimiento natural para producir la convergencia cuadrática será
f (pn )
pn+1 = g (pn ) = pn −
f  (pn )

que es el método de Newton.


En el procedimiento anterior, impusimos la restricción de que f  (p) = 0 , donde p es la
solución de f (x) = 0 . Conforme a la definición del método de Newton, es evidente que
pueden surgir dificultades si f  (pn ) tiene un cero simultáneamente con f (pn ) . En particular,
el método de Newton y el de la secante ocasionaran problemas si f  (p) = 0 cuando f (p) = 0 .
Para examinar mas a fondo estas dificultades, damos la siguiente definición.

Definición 2.4 Un cero p de f (x) = 0 es de multiplicidad m si para x = p podemos escribir


m
f (x) = (x − p) q (x) , con limx→p q (x) = 0 .

Teorema 2.12 Una función f : [a, b] −→ R , derivable m veces, tiene un cero de multiplici-
dad m en p si f (p) = f  (p) = f  (p) = · · · = f (m−1) (p) = 0 y f (m) (p) = 0 .

El siguiente ejemplo muestra cómo la convergencia cuadrática posiblemente no ocurra si el


cero no es simple.

Ejemplo 39 La función f (x) = ex − x − 1 posee un cero de multiplicidad 2 en p = 0 , pues


f (0) = f  (0) = 0 y f  (0) = 1 . De hecho podemos expresar f (x) de la siguiente forma

2 ex − x − 1
f (x) = (x − 0)
x2
empleando la regla de L’Hospital, obtenemos que

ex − x − 1 ex − 1 ex 1
lim = lim = lim =
x→0 x2 x→0 2x x→0 2 2
la siguiente tabla muestra los términos que se generaron con el método de Newton aplicado a
f con p0 = 1 .

Teorema 2.13 Supongamos que F define un método iterativo de punto fijo y que F (p) = p ,
F  (p) = F  (p) = · · · = F (m−1) (p) = 0 y F (m) (p) = 0 , entonces el método iterativo de punto
fijo definido por F tiene orden de convergencia m .

Demostración. Sea p0 un punto arbitrario y definamos la sucesión (pn )n∈N por pn+1 =
F (pn ), n  0 . Recordemos que el error es definido por

en = pn − p.
Sergio Plaza 53

n pn n pn
0 1.0 9 2.7750 ×10−3
1 0.58198 10 1.3881 ×10−3
2 0.31906 11 6.9411 ×10−4
3 0.16800 12 3.4703 ×10−4
4 0.08635 13 1.7416 ×10−4
5 0.04380 14 8.8041 ×10−5
6 0.02206 15 4.2610 ×10−5
7 0.01107 16 1.9142 ×10−6
8 0.005545

Tenemos entonces que

en+1 = pn+1 − p
= F (pn ) − F (p)
= F (p + en ) − F (p)
e2n em−1 em
F (p) + F  (p)en + F  (p) + · · · + F (m−1) (p) n + F (m) (&
p) n − F (p)
Taylor
=
2! (m − 1)! m!

em
con p& entre p y p + en . Usando la hipótesis nos queda en+1 = F (m) (& n
p) m! , de donde

en+1  F (m) (p)


lim =
n→∞ en  m m!

pues p& → p cuando pn → p .

2.8 Raı́ces múltiples


Un método para tratar el problema de raı́ces múltiples consiste en definir la función μ (x) por
medio de

f (x)
μ (x) = .
f  (x)
m
Si p es un cero de multiplicidad m entonces podemos escribir f (x) = (x − p) q (x) , con
q(p) = 0 . Reemplazando, nos queda

(x − p)m q (x) q (x)


μ (x) = = (x − p)
m (x − p)
m−1
q (x) + (x −
m
p) q  (x) mq (x) + (x − p) q  (x)

posee un cero en x = p . Pero como q (p) = 0 , derivando y evaluando en x = p , obtenemos

1
μ (p) = = 0,
m
Sergio Plaza 54

por lo tanto p es un cero simple de μ (x) . Ası́ podemos aplicar el método de Newton a la
función μ (x) obteniendo

f (x)
μ (x) f  (x)
g (x) = x − =x−
μ (x) (f  (x))2 −f (x) f  (x)
(f  (x))2

desarrollando, nos queda la fórmula iterativa


f (x) f  (x)
g (x) = x − 2 , (2.23)
(f  (x)) − f (x) f  (x)

esta es conocida como método iterativo de Schröder.


Si g satisface las condiciones de diferenciablidad necesarias, la iteración funcional aplicada a
g será cuadráticamente convergente sin importar la multiplicidad de la raı́z de f . En teorı́a,
el único inconveniente de este método es el cálculo adicional de f  (x) y el procedimiento más
laborioso con que se calculan las iteraciones. Sin embargo, en la práctica la presencia de un
cero múltiple puede ocasionar serios problemas de redondeo porque el denominador del método
arriba consta de la diferencia de dos números que están cercanos a la raı́z, es decir, diferencia
de números parecidos.

Ejemplo 40 La siguiente tabla contiene las aproximaciones de la raı́z doble en x = 0 de la


función f (x) = ex − x − 1 , utilizando el método de Schröder y una máquina con diez dı́gitos
de precisión. Elegimos la aproximación inicial p0 = 1 de manera que las entradas pueden
compararse con las de la tabla del anterior. Lamentablemente no aparece en la tabla es que no
se produce mejoramiento alguno en la aproximación de la raı́z –2.8085217 ×10−7 en los cálculos
subsecuentes cuando se usa Schröder y esta máquina, ya que el numerador y el numerador se
acercan a cero.

n pn
1 −2.3421061 × 10−1
2 −8.4582788 × 10−3
3 −1.1889524 × 10−5
4 −6.8638230 × 10−3
5 −2.8085217 × 10−3

Ejemplo 41 En la sección anterior resolvimos la ecuación f (x) = x3 + 4x2 − 10 = 0 para la


raı́z p = 1.36523001 . Para comparar la convergencia para una raı́z simple por el método de
Newton y el método de Schröder, sea
p3n−1 + 4p2n−1 − 10
i. pn = pn−1 − (método de Newton)
3p2n−1 + 8pn−1
y según la fórmula del método de Schröder
3
pn−1 + p2n−1 − 10 3p2n−1 + 8pn−1
ii. pn = pn−1 − 2 .
3p2n−1 + 8pn−1 − p3n−1 + p2n−1 − 10 (6pn−1 + 8)
Cuando p0 = 1.5 , las tres primeras iteraciones para (i) y (ii) se incluyen en la siguiente tabla.
Los resultados muestran la convergencia rápida en ambos casos.
Sergio Plaza 55

(i) (ii)
p1 1.37333333 1.35689898
p2 1.36526201 1.36519585
p3 1.36523001 1.36523001

Otra manera de acelerar la convergencia del método de Newton para raı́ces múltiples es el
siguiente. Sea p una raı́z múltiple de multiplicidad m de f (x) = 0 . Definamos el siguiente
método iterativo

f (x)
Nm (x) = x − m .
f  (x)

este método tiene convergencia cuadrática en un intervalo abierto que contiene a p y tiene
convergencia lineal cerca de la raı́ces simples de f (x) = 0 .

2.9 Aceleración de convergencia


Existen casos en los que no tenemos convergencia cuadrática, considerando esto a continuación
estudiaremos una técnica denominada método Δ2 de Aitken, la cual sirve para acelerar la
convergencia de una sucesión que sea linealmente convergente.

Supongamos que (pn )n=0 es una sucesión linealmente convergente con limite p . Vamos a

construir una sucesión (p̂n )∞
n=0 convergente a p más rápidamente que (pn )n=0 . Supongamos
primero que los signos de pn − p, pn+1 − p y pn+2 − p son iguales y que n es suficientemente
grande para que
pn+1 − p pn+2 − p
≈ .
pn − p pn+1 − p

Entonces

2
(pn+1 − p) ≈ (pn − p) (pn+2 − p) ,

por lo tanto

(pn+1 )2 − 2pn+1 p + p2 ≈ pn+2 pn − (pn + 2pn ) p + p2 ,

al despejar p obtenemos

2
pn+2 pn − (pn+1 )
p≈ .
pn+2 − 2pn+1 + pn

Si sumamos y restamos los términos p2n y 2pn pn+1 en el numerador podemos escribir esta
última expresión de la siguiente manera

2
(pn+1 − pn )
p ≈ pn − .
pn+2 − 2pn+1 + pn
Sergio Plaza 56


El método Δ2 de Aitken se basa en la suposición de que la sucesión (p̂n )n=0 definida por

2
(pn+1 − pn )
p̂n = pn − ,
pn+2 − 2pn+1 + pn
conocido como método de acelaración de Aitken, converge más rápido a p que la sucesión
original (pn )n∈N .

Ejemplo 42 La sucesión (pn )n∈N definida por pn = cos n1 , converge linealmente a p = 1 .
En la siguiente tabla se incluyen los primeros términos de las sucesiones (pn )n∈N y (p̂n )n∈N .
Observe que (p̂n )n∈N converge mas rápidamente a p = 1 que (pn )n∈N . Esto queda claro en la
tabla siguiente

n pn pn
1 0.54030 0.96178
2 0.87758 0.98213
3 0.94496 0.98979
4 0.96891 0.99342
5 0.98007 0.99541
6 0.98614
7 0.98981

La notación Δ asociada a esta técnica tiene su origen en la siguiente definición.

Definición 2.5 Dada la sucesión (pn )n∈N la diferencia Δpn es definida por

Δpn = pn+1 − pn .

Las potencias mayores se denotan por Δk pn y se definen recursivamente por


Δk pn = Δ Δk−1 pn , k  2.

Tomando en cuenta la definición anterior obtenemos que

Δ2 pn = Δ (pn+1 − pn ) = Δpn+1 − Δpn = pn+2 − 2pn+1 + pn ,

ası́ la fórmula de aceleración de convergencia de Aitken se puede escribir como

2
 (Δpn )
p n = pn − . (2.24)
Δ2 pn

Teorema 2.14 Supongamos que la sucesión (pn )n∈N converge linealmente a p y que para
todos los valores de n suficientemente grandes se tiene que (pn − p) (pn+1 − p) > 0 . Entonces
la sucesión (p̂n )n∈N construida por el método de aceleración de convergencia de Aitken converge
con mayor rapidez a p que la sucesión (pn )n∈N en el sentido que
p̂n − p
lim = 0.
n→∞ pn − p
Sergio Plaza 57

Al aplicar un método Δ2 modificado de Aitken a una sucesión linealmente convergente


obtenida mediante iteración de punto fijo podemos acelerar la convergencia. A este proced-
imiento se le conoce con el nombre de método de Steffensen, y difiere un poco de la aplicación
del método Δ2 de Aitken directamente a la sucesión de iteraciones de punto fijo que convergen
linealmente. El método Δ2 de Aitken deberá construir los términos en el orden:

' ( ' (
p0 , p1 = g (p1 ) , p2 = g (p1 ) , p̂0 = Δ2 p0 , p3 = g (p2 ) , p̂1 = Δ2 p1
' 2(
donde Δ indica que se usa le método Δ2 de Aitken.
El método de Steffensen construye los mismos primeros cuatro términos p0 , p1 , p2 y p̂0 .
No obstante, en este paso supone que p̂0 es una mejor aproximación de p que p2 y aplica la
iteración de punto fijo a p̂0 en vez de a p2 . Al aplicar esta notación, la secuencia generada será

   
(0) (0) (0) (0) (0)
p0 , p1 = g p0 , p2 = g p1 ,

' ( (0)    
(1) (1) (1) (1) (1)
p0 = Δ2 p0 , p1 = g p0 , p2 = g p1 ,

' ( (1)  
(2) (2) (2)
p0 = Δ2 p0 , p1 = g p0 , . . .

Ejemplo 43 Para resolver x3 + 4x2 − 10 = 0 mediante el método de Steffensen, sea x3 + 4x2 =


10 y resolvamos para x dividiendo entre x + 4 . Con este procedimiento se produce el método
de punto fijo

 1/2
10
g (x) = ,
x+4

y x = g (x) implica que x3 + 4x2 − 10 = 0 .


En la siguiente tabla se muestran los valores obtenidos con el método de Steffensen con
p0 = 1.5 .

k pk0 pk1 pk2


0 1.5 1.348399725 1.367376372
1 1.365265224 1.365225534 1.365230583
2 1.365230013

La exactitud de la iteración p20 = 1.365230013 es de nueve cifras decimales. En este ejemplo,


con el método de Steffensen se obtuvo casi la misma rapidez de convergencia que con el método
de Newton.

Teorema 2.15 Supongamos p que es un punto fijo de g (x) , con g  (p) = 1 . Si existe δ > 0
tal que g es 3 veces derivable y que g  es continua en [a − δ, p + δ] , entonces con el método
de Steffensen obtendremos convergencia cuadrática para cualquier x ∈ [a − δ, p + δ] .
Sergio Plaza 58

2.10 Problemas resueltos


Problema 2.1 Sea g(x) = 0.1 + 0.6 cos(2x) .

(a) Pruebe que g(x) define un método iterativo convergente, encontrando explı́citamente un
intervalo cerrado y acotado I = [a, b] tal que g(I) ⊂ I y una constante 0  λ < 1 tal
que |g  (x)|  λ para todo x ∈ I .

(b) Estime el número de iteraciones que debe hacerse con este método de modo que se tengan
4 decimales de precisión para el punto fijo de g en I si tomamos como condición inicial
el punto x0 = 0.4 .

(c) Use el método de Newton para encontrar una aproximación al punto fijo de g(x) en I .
Use como condición inicial x0 = 0.4 y como criterio de parada |xn − g(xn )|  10−5 .

(d) Considere una pequeña variación g̃(x) de g(x) , donde g̃(x) = 0.2 + 0.6 cos(2x) . Denote
por α y α̃ los puntos fijos de g y g̃ respectivamente. Demuestre que
0.1
|α − α̃| 
1−L
donde L es la constante de Lipschitz de la función g Qué ocurre con las iteraciones
xn+1 = g̃(xn ) , donde x0 = 0.45 ? Explique

Solución

(a) Tenemos que g(x) = 0.1 + 0.6 cos(2x) . Para probar que esta función define un método
iterativo convergente, debemos mostrar que

(i) Existe un intervalo cerrado y acotado I que es aplicado en si mismo por g .


(ii) Existe una constante 0  λ < 1 tal que |g  (x)|  λ para todo x ∈ I .

Es fácil ver que podemos satisfacer ambas condiciones por separado. Por ejemplo, como

−1  cos(2x)  1

para todo x , se sigue que

−0.5  g(x)  0.7 ,

0.7

0.6

0.5

0.4

0.3

0.2
0.2 0.3 0.4 0.5 0.6 0.7
x

gráfico de g en [0.2, 0.7]


Sergio Plaza 59

y como g(x) tiene un máximo en x = 0 , se tiene que

0.2 < g(0.7)  g(g(x))  g(0)  0.7 .

También, g  (x) = −1.2 sen(2x) , luego (b) se satistace si

|x|  0.5 arcsen(1/1.2) ≈ 0.49255539 .

Sin embargo ninguno de esos intervalos mencionados satisface ambas condiciones. Debe-
mos encontrar un intervalo adecuado donde se satisfacen ambas condiciones.
No se gana mucho considerando un intervalo que no esté contenido en [0.2, 0.7] , pues
todo los valores de g(g(x)) están en este intervalo. Notemos que g(x) es decreciente
sobre este intervalo (considere la derivada) y como g(0.2) = 0.6526365964... y g(0.7) =
0.2019802857... se tiene que g([0.2, 0.7]) = [0.2019802857..., 0.6526365964...] ⊂ [0.2, 0.7] =
I . Luego, como puntos extremos de I son llevados en I por g , (a) se satisfecha, pero (b)
requiere que el extremo derecho no sea mayor que 0.5 arcsen(1/1.2) ≈ 0.49255539 , luego
el punto extremo izquierdo no puede ser menor que la preimágen de este valor bajo g , la
cual es aproximadamente 0.4288 . Ahora, tomando x0 = 0.45 se tiene que x1 = g(x0 ) ≈
0.4729659810 < 0.473 = x̃1 , y podemos tomar el intervalo J = [0.45, 0.473] ⊂ I , y se tiene
que g(0.45) ≈ 0.4729659810 y g(0.473) ≈ 0.4509592536 , y siendo g decreciente en ese
intervalo, se tiene que g(J) = [0.4509592536..., 0.4729659810...] ⊂ [0.45, 0.473] , es decir,
g(J) ⊂ J . En este intervalo J se tiene que max{|g  (x)| : x ∈ J} = 0.9732987256... =
λ < 1 . Luego, el método propuesto converge para cada x0 ∈ J .

0.8

0.6
y
0.4

0.2

0 0.45 0.455 0.46 0.465 0.47


x

gráfico de |g  (x)| en J
n
(b) Usaremos la fórmula |xn − xg |  1−λ
λ
|x0 − x1 | , donde λ = max{|g  (x)| : x ∈ J} =
0.9732987256... y xg es el punto fijo de g que andamos buscando. Para simplificar,
tomamos un λ̃ = 0.98 > λ en el numerador, pues tenemos que 1/(1 − λ) ≈ 37.45139595
y 1/(1 − 0.98) ≈ 50.00 . Luego

λn 1
|xn − xg |  |x0 − x1 |  λ̃n |x0 − x1 | = 50 λ̃n |x0 − x1 |
1−λ 1 − λ̃

tomando un valor x̄1 < x1 | , agrandamos la diferencia |x0 − x1 , por ejemplo, tomamos
x̃1 = 0.473 , y tememos 0.72965981 × 10−1 ≈ |x0 − x1 |  |x0 − x̃1 | = |0.4 − 0.473| = 0.073 .
Reemplazando esos valores en la última parte de la desigualdad anteior, obtenemos
Sergio Plaza 60

50 × (0.98)n × 0.073  10−4


es decir,
3.65 × (0.98)n ×  10−4
de donde
(0.98)n  0.27397 × 10−4
ahora, tomando logarı́tmo natural, nos queda

n ln(0.98)  ln(0.27397 × 10−4 ) ≈ −10.50507704


de donde, n  ln(0.8695652174×10−4)/ ln(0.98) ≈ 519.9836,. Luego, debemos tomar n 
520 como el número de iteraciones para asegurar que tenemos 4 decimales de precisión.

(c) Para encontrar el punto fijo de g debemos resolver la ecuación g(x) = x , es decir,
0.1 + 0.6 cos(2x) = x , de donde debemos encontrar una raı́z de la ecuación f (x) =
0.1 + 0.6 cos(2x) − x = 0 . Usando el método de Newton, tenemos

f (x)
Nf (x) = x−
f  (x)
0.1 + 0.6 cos(2 x) − x
= x−
−1.2 sin(2 x) − 1
0.5 (12 x sin(2 x) + 1 + 6 cos(2 x))
=
6 sin(2 x) + 5

Comenzando con las iteraciones, y usando que xn+1 = g(xn ) , y trabajando con 12 dı́gitos
se tiene que
x1 = Nf (0.4) = 0.463425566162 , e1 = |x1 − x0 | = 0.13425566162 × 10−1
x2 = Nf (x1 ) = 0.461786298387 , e2 = |x2 − x1 | = 0.1639267775 × 10−2
x3 = Nf (x2 ) = 0.461785307874 , e3 = |x3 − x2 | = 0.990513 × 10−6
x4 = Nf (x3 ) = 0.461785307873 , e4 = |x4 − x3 | = 0.1 × 10−11 .
Además, g(x4 ) = 0.461785307873 = x4 , por lo tanto, salvo errores de orden mayor que
10−11 se tiene que el punto fijo es xg = 0.461785307873

(d) Es fácil ver graficamente que g̃ tiene un punto fijo α̃ .

0.8

0.6

0.4

0.2

0 0.2 0.4 0.6 0.8 1


x

gráfico de g̃ en [0, 1]
Sergio Plaza 61

Solución Numérica. Podemos usar el método de Newton para aproximar α̃ . Para


ello debemos resolver la ecuación g̃(x) = x , es decir, si definimos la función r(x) =
0.2 + 0.6 cos(2x) − x , dedemos encontrar una raı́z de r . Ahora, como r(x) = 0.2 +
0.6 cos(2 x) − x , se tiene que r (x) = −1.2 sin(2 x) − 1 y
r(x)
Nr (x) = x −
r (x)
viene dada por
0.2 + 0.6 cos(2 x) − x 6 x sin(2 x) + 1 + 3 cos(2 x)
Nr (x) = x − =
−1.2 sin(2 x) − 1 6 sin(2 x) + 5
Tomando y0 = 0.4 , tenemos
y1 = Nr (y0 ) = 0.5171651042 , E1 = 0.1171651042
y2 = Nr (y1 ) = 0.5119943202 , E2 = 0.0051707840
y3 = Nr (y2 ) = 0.5119861755 , E3 = 0.81447 10−5
y4 = Nr (y3 ) = 0.5119861754 , E4 = 0.1 10−9
y podemos considerar que salvo un error, α̃ = y4 = 0.5119861754 , pues g̃(y4 ) =
0.5119861753 y g̃(y4 ) − y4 = −0.1 10−9 , es decir, consideremos α̃ = y4 = 0.5119861753
Ahora, calculemos la constante de Lipschitz de g(x) = 0.1 + 0.6 cos(2x) . Tenemos,

|g(x) − g(y)| = |0.6 cos(2x) − 0.6 cos(2y)|


= 0.6| cos(2x) − cos(2y)|
= 0.6|2sen(2ζ)| |x − y|
donde ζ está entre x e y , y x, y ∈ [0.45, 0.473] . Debemos maximizar la expresión
sen(2ζ) para ζ ∈ [0.45, 0.473] . Se tiene que max{|sen(2ζ)| : ζ ∈ [0.45, 0.473]} ≈
0.8110822713 , luego

|g(x) − g(y)|  1.2 × 0.8110822713 |x − y|


es decir,
|g(x) − g(y)|  0.9732987256 |x − y| .
y tomamos L = 0.973298726 . Tememos α = xg = 0.461785307873 y α̃ = 0.5119861753 ,
luego
0.1 0.1
|α − α̃| = 0.050200867  = = 3.745139651 .
1−L 1 − 0.973298726
Solución Teórica.
Tenemos
|α − α̃| = |g̃(α̃) − g(α)|
= |0.2 + 0.6 cos(2α̃) − 0.1 − 0.6 cos(2α)|
= |0.1 + 0.6 cos(α̃) − 0.6 cos(α)|
 0.1 + |0.1 + 0.6 cos(2α̃) − (0.1 + 0.6 cos(α))|
= 0.1 + |g(α̃) − g(α)|
 0.1 + L|α̃ − α| .
Sergio Plaza 62

Es decir, hemos probado que |α̃ − α|  0.1 + L|α̃ − α| , de donde, |α̃ − α|(1 − L)  0.1 ,
1
y de aquı́, |α̃ − α|  1−L como se pedı́a.

Problema 2.2 Sea f (x) = (x − 1) ln(x) .

(a) Determine la fórmula de Newton xn+1 = g(xn ) . Tomando como valor inicial x0 = e ,
calcule las primeras dos iteraciones x1 y x2 del método.

(b) Demuestre que el método de Newton usado en la parte (a) tiene un orden de convergencia
p = 1.

(c) Dé un método alternativo de iteración que garantice un orden de convergencia p = 2 y


demuestre que efectivamente este es su orden de convergencia.

Solución.

(a) La frmula del método de Newton para encontrar la raı́z de f (x) = (x − 1) ln x = 0 es:
(xn − 1) ln xn xn (xn ln xn + (xn − 1) − (xn − 1) ln xn )
xn+1 = g(xn ) = xn − xn −1 =
ln xn + xn xn ln xn + (xn − 1)
xn − 1 + ln xn
= xn .
xn − 1 + xn ln xn

Tomando x0 = e y simplificando al máximo, obtenemos


e2 e2 (e + 1)2 − 2 − ln(2e − 1)
x1 = y x2 = · 2
2e − 1 2e − 1 e (2 − ln(2e − 1)) + (e − 1)2

(b) La raı́z de f (x) = 0 es evidentemente x = 1 y es una raı́z doble, es decir, f (1) = 0,


f  (1) = 0, y f  (1) = 0. En efecto, es claro que f (1) = 0. Además, f  (x) = ln x + 1 − x1 .
Ası́, f  (1) = 0. Por último, f  (x) = x1 + x12 y por lo tanto f  (1) = 2 = 0. Esto muestra
que x = 1 es una raı́z doble de f (x) = 0. Como se vi en clases, esto implica que la funcin
de iteracin del método de Newton g(x) satisface que
1 1
g  (1) = 1 − = .
2 2
Luego, como |g  (1)| < 1, el método de Newton es convergente, partiendo de un punto x0
suficientemente cercano a 1, pero su orden de convergencia es slo 1, pues g  (1) = 0.

(c) Como es sabido de lo visto en clases, la forma de “reparar” el orden de convergencia


cuadrático del método de Newton es mediante el método de Newton modificado, el cual
se obtiene multiplicando el cuociente ff(x)
(x) (en la frmula de Newton) por la multiplicidad
de la raı́z (que en este caso es 2), es decir,
(xn − 1) ln xn xn − 1 + (2 − xn ) ln xn
xn+1 = g&(xn ) = xn − 2 = xn .
ln xn + xnx−1
n
xn ln xn + xn − 1

Con esto, por lo que se vi en clases, obtenemos que


1
g& (1) = 1 − 2 · = 0,
2
lo cual implica que el método de Newton modificado converge cuadráticamente, partiendo
de un punto x0 suficientemente cercano a 1.
Sergio Plaza 63

Problema 2.3 Considere la ecuación

cos(x) = tan(x),
de la cual se sabe que tiene una solución x̄ = 0.6662394321 , con un error de 0.9 × 10−9 .

(a) Defina un método de punto fijo (diferente a Newton) y demuestre su convergencia (sin
hacer iteraciones) en el intervalo que usted defina.

(b) Cuántas iteraciones necesitarı́a para obtener el error de 0.9 × 10−9 comenzando con
x0 = 0.6 ?

(c) Use el método de Newton con el punto inicial x0 = 0.6 y obtenga x1 y x2 Cuál es la
velocidad de convergencia del método de punto fijo propuesto por usted en la parte (a)?

Solución.
(a) Propuesta del método.
Despejando de la ecuación tenemos

x = arctan(cos(x)) = g(x) ,

es decir,

xk+1 = g(xk ) = arctan(cos(xk )) .

Elegimos el intervalo [0, 1] , tenemos que g(x) = arctan(cos(x)) es decreciente en ese inter-
d sen(x) π
valo, pues g  (x) = arctan(cos(x)) = − y como g(0) = arctan(cos(0)) = y
dx 1 + cos2 (x) 4
g(1) = arctan(cos(1)) ≈ 0.4953672892 , vemos que g([0, 1]) ⊂ [0, 1] . Por lo tanto, g tiene un
único punto fijo xg en [0, 1] .

0.75

0.7

0.65

0.6

0.55

0.5
0 0.2 0.4 0.6 0.8 1
x

d sen(x)
Ahora, g  (x) = arctan(cos(x)) = − . Luego,
dx 1 + cos2 (x)

|g(x̄)| = |g  (0.6662394321)| ≈ 0.381964618 < 1

y el método iterativo propuesto es convergente.


Sergio Plaza 64

(b) Para estimar el número de iteraciones podemos usar la fórmula para cotas del error

λn
|xn − x̄|  |x0 − x1 | ,
1−λ

donde 0  λ < 1 es tal que |g  (x)|  λ para todo x ∈ ] a, b [ . Ahora como |g  (x)| =
|sen(x)| sen(x)
= 1+cos
1+cos2 (x) 2 (x) , para x ∈ [0, 1] , es una función creciente, se sigue que

sen(1)
|g  (x)|  ≈ 0.5463024898  0.55
1 + cos2 (1)

y podemos usar λ = 0.55 .


Tenemos que x0 = 0.6 , luego x1 = 0.6899997083 y |x0 − x1 | = 0.0899997083 . Luego

0.55n
× 0.0899997083  0.9 × 10−9
1 − 0.55
0.55n  4.50001458 × 10−9
n ln(0.55)  ln(4.50001458 × 10−9 )
n(−0.5978370008)  −19.2191852

de donde n  32.14786836 , por lo tanto basta tomar n = 33 iteraciones para tener lo pedido.

(c) Tenemos que Nf (x) = x − ff(x)(x) , donde en este caso, f (x) = tan(x) − cos(x) . Como
 2
f (x) = 1 + tan (x) + sen(x) , se tiene que

tan(x) − cos(x)
Nf (x) = x −
1 + tan2 (x) + sen(x)

luego, calculando obtenemos x1 = 0.6694641628 y x2 = 0.6660244822 . Ahora, como f  (x̄) ≈


2.236067976 = 0 el método de Newton tiene convergencia cuadrática, es decir, orden p = 2 .
Para analizar la convergencia del método propuesto en (a) tenemos que buscar la primera
derivada no nula en el punto fijo, y por los cálculos ya realizados se tiene que g  (x̄) = 0 , por
tanto el método tiene orden de convergencia p = 1 . Por lo tanto, el método de Newton converge
mucho más rápido, en este caso.

Problema 2.4 Se desea resolver la ecuación x3 − ln(1 + 2x) = 0.

1. Compruebe que esta ecuación tiene exactamente una solución en el intervalo [1, 2] .

2. Proponga un método iterativo de punto fijo (diferente de Newton) que converja a la


solución de la ecuación en el intervalo [1, 2]. Justifique.

3. Partiendo de x0 = 1, determine el número mı́nimo de iteraciones que se necesitarı́an para


alcanzar una precisión de 10−4 , utilizando el método iterativo propuesto anteriormente.

Solución.
Sergio Plaza 65

1. Tenemos la ecuación

f (x) = x3 − ln(1 + 2x) = 0 .

Es claro que el dominio de f es {x ∈ R : x > −1/2} , en el cual f es continua y


diferenciable.
Ahora,
2 3x2 (1 + 2x) − 2 6x3 + 3x2 − 2
f  (x) = 3x2 − = = .
1 + 2x 2x + 1 2x + 1
El denominador de f es positivo en el intervalo [1,2] y su numerador h(x) = 6x3 + 3x2 − 2
también es positivo en dicho intervalo, pues h (x) = 18x2 + 6x = 0 si y sólo si x = 0 o
18x + 6 = 0 , es decir, x = −1/3. Con esto, es claro que h (x) > 0 en el intervalo [1, 2],
luego h es estrictamente creciente en [1, 2] . Además, como h(1) = 6 + 3 − 2 = 7 , se sigue
que h(x) > 0 en todo [1, 2] . Por lo tanto f  (x) > 0 en [1, 2] , en consecuencia si tiene un
cero en dicho intervalo, este serı́a único. Ahora, como f (1) = 1−ln(3) ≈ −0.09861 . . . < 0
y f (2) = 8 − ln(5) ≈ 6.39056 . . . > 0 , por el Teorema del Valor Intermedio, f tiene un
cero en [1, 2] , y como vimos, este es único.

2. Despejando x desde la igualdad

x3 − ln(1 + 2x) = 0

tenemos 
3
x= ln(1 + 2x) .

Proponemos entonces el método iterativo de punto fijo


3
xn+1 = g(xn ) = ln(1 + 2xn ) .

Tenemos

2 1 1
g  (x) = · >0
3 (ln(1 + 2x))2/3 2x + 1

en [1, 2] . Por lo tanto, g es creciente en [1, 2] .


Ahora, para ver que g([1, 2]) ⊆ [1, 2] , basta ver que 1  g(1)  g(2)  2 . Tenemos

1 < 1.03184584
 . ..  1.171902307
  . ..  2
g(1) g(2)

de donde g([1, 2]) ⊆ [1, 2] y como g es estrictamente creciente, en ese intervalo, g tiene
un único punto fijo xg ∈ g([1, 2]) ⊂ [1, 2] .
Para ver la convergencia del método propuesto, debemos probar que |g  (x)|  λ < 1 para
todo x ∈ [1, 2] .
Ahora, g  (x) es decreciente en [1, 2] y g  (1) = 0.208717132 > g  (x) > g  (2) = 0.0970858457 .
Por lo tanto λ = max{|g  (x)| : x ∈ [1, 2]} = 0.2087170132 y es claro que λ < 1 .
Por lo tanto el método propuesto es convergente al único punto fijo de g en [1, 2] .
Sergio Plaza 66


3
3. Tomando x0 = 1 , tenemos que x1 = g(1) = ln(3) = 1.03184584 . . .U̇sando la fórmula

λn
|xg − xn |  |x1 − x0 |,
1−λ
si queremos precisión de 10−4 , imponemos entonces que

λn
|x1 − x0 |  10−4 .
1−λ
Como |x1 − x0 | = |0.0318458398 . . .| < 0.032 (para evitar el cálculo con tantos decimales)
y λ = 0.2087170132 , se tiene 1 − λ = 0.7912829868 . . . > 0.79 (misma razón anterior)
1 1
Ası́ < , y como λ < 0.21 nos queda
1−λ 0.79
λn (0.21)n
 .
1−λ 0.79
Luego

λn (0.21)n
|x1 − x0 |  × 0.032 = (0.21)n × 0.0405063 . . .  (0.21)n × 0.041
1−λ 0.79
10−4
y hacemos 0.041 × (0.21)n < 10−4 , de donde (0.21)n < , y entonces
 −4  0.041
10
n ln(0.21)  ln y como ln(0.21) < 0 , se sigue que
0.041

 
10−4
ln
0.041
n  ≈ 3.8549104 . . .
ln(0.21)

Por lo tanto, con al menos 4 iteraciones tenemos garantizado lo pedido.

Problema 2.5 Considere el siguiente sistema de ecuaciones no lineales


⎨ x21 + x2 − 37 = 0
x1 − x22 − 5 = 0

x1 + x2 + x3 − 3 = 0

(a) Utilizando el método de Newton para sistemas no lineales y tomando como punto inicial
x0 = (0, 0, 0)T , obtenga el punto x1 .

(b) Cuando se utiliza el método de Newton para sistemas no lineales, una alternativa para
no calcular la inversa de una matriz en cada iteración es resolver un sistema auxiliar de
ecuaciones linwales en cada iteración, lo cual es desde el punto de vista numérico siempre
resulta más conveniente.
Describa el sistema de ecuaciones lineales que deberı́a resolver para obtener el punto x1
de la parte (a) y calcule el número de condicionamiento de la matriz del sistema con
respecto al redio espectral puede inferir algo sobre la estabilidad de las soluciones del
sistema?
Sergio Plaza 67

Solución. Tenemos el sistema de ecuaciones no lineales siguiente


⎨ x21 + x2 − 37 = 0
x1 − x22 − 5 = 0

x1 + x2 + x3 − 3 = 0

a) Método de Newton. Llamemos

f1 (x1 , x2 , x3 ) = x21 + x2 − 37
f2 (x1 , x2 , x3 ) = x1 − x22 − 5
f3 (x1 , x2 , x3 ) = x1 + x2 − x3 − 3

y F (x1 , x2 , x3 ) = (f1 (x1 , x2 , x3 ), f2 (x1 , x2 , x3 ), f3 (x1 , x2 , x3 )) .


El método de Newton es dado por

⎛ (k+1) ⎞ ⎛ (k) ⎞ ⎛ (k) (k) (k) ⎞


x1 x1 f1 (x1 , x2 , x3 )
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ (k+1) ⎟ ⎜ (k) ⎟ (k) (k) (k) −1 ⎜ ⎟
⎜ x2 ⎟ = ⎜ x2 ⎟ − JF (x1 , x2 , x3 ) ⎜ f2 (x(k) (k) (k)
1 , x2 , x3 ) ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠ ⎝ ⎠
(k+1) (k) (k) (k) (k)
x3 x3 f3 (x1 , x2 , x3 )

Ahora,
⎛ ∂f1 ∂f1 ∂f1 ⎞
∂x1 ∂x2 ∂x3
⎜ ⎟
⎜ ⎟
⎜ ∂f2 ∂f2 ∂f2 ⎟
JF = ⎜ ⎟.
⎜ ∂x1 ∂x2 ∂x3 ⎟
⎝ ⎠
∂f3 ∂f3 ∂f3
∂x1 ∂x2 ∂x3

Derivando, tenemos

 
∂F ∂f1 ∂f2 ∂f3
= , , = (2x1 , 1, 1)
∂x1 ∂x1 ∂x1 ∂x1
 
∂F ∂f1 ∂f2 ∂f3
= , , = (1, −2x1 , 1)
∂x2 ∂x2 ∂x2 ∂x2
 
∂F ∂f1 ∂f2 ∂f3
= , , = (0, 0, 1)
∂x3 ∂x3 ∂x3 ∂x3

Luego,

⎛ ⎞
2x1 1 0
JF (x1 , x2 , x3 ) = ⎝ 1 −2x2 0 ⎠.
1 1 1

Evaluando en x(0) = (0, 0, 0)T nos queda la matriz


Sergio Plaza 68

⎛ ⎞
0 1 0
JF (0, 0, 0) = ⎝ 1 0 0 ⎠.
1 1 1

Para calcular (JF (0, 0, 0))−1 , lo podemos hacer en forma simple, escribiendo

⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 0 a11 a12 a13 1 0 0
⎝ 1 0 0 ⎠ · ⎝ a21 a22 a23 ⎠ = ⎝ 0 1 0 ⎠
1 1 1 a31 a32 a33 0 0 1
de donde a21 = 1 , a22 = 0 , a23 = 0 , a11 = 0 , a13 = 0 , a11 + a21 + a31 = 0 , de donde,
a31 = −1 ; a12 + a22 + a32 = 0 , de donde, a32 = −1 ; a13 + a23 + a33 = 1 , de donde, a33 = 1 .
Por lo tanto,

⎛ ⎞−1 ⎛ ⎞
0 1 0 0 1 0
⎝ 1 0 0 ⎠ =⎝ 1 0 0 ⎠
1 1 1 −1 −1 1

Tenemos, F (0, 0, 0) = (−37, −5, −5) . Por lo tanto,


⎛ (1)
⎞ ⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞
x1 0 0 1 0 −37 5
⎜ (1) ⎟ ⎝ ⎠ ⎝
⎝ x2 ⎠ = 0 − 1 0 0 ⎠ ⎝ −5 ⎠ = ⎝ 37 ⎠
(1) 0 −1 −1 1 −3 −39
x3

b) Para obtener la fórmula pedida, recordemos lo hecho en clases para sistemas de ecuaciones
no lineales, en este caso de 3 × 3 . Sean (x1 , x2 , x3 ) una solución aproximada del sistema de
ecuaciones no lineales, y sea (x1 + h1 , x2 + h2 , x3 + h3 ) la solución exacta. Aplicando Taylor,
obtenemos

∂f1 ∂f1 ∂f1


0 = f1 (x1 + h1 , x2 + h2 , x3 + h3 ) ≈ f1 (x1 , x2 , x3 ) + h1 + h2 + h3
∂x1 ∂x2 ∂x3

∂f2 ∂f2 ∂f2


0 = f2 (x1 + h1 , x2 + h2 , x3 + h3 ) ≈ f2 (x1 , x2 , x3 ) + h1 + h2 + h3
∂x1 ∂x2 ∂x3

∂f3 ∂f3 ∂f3


0 = f3 (x1 + h1 , x2 + h2 , x3 + h3 ) ≈ f3 (x1 , x2 , x3 ) + h1 + h2 + h3
∂x1 ∂x2 ∂x3
donde las derivadas parciales están evaluadas en (x1 , x2 , x3 ) . De lo anterior, tenemos que

⎛ ⎞
h1
JF (x1 , x2 , x3 ) ⎝ h2 ⎠ = −F (x1 , x2 , x3 ) .
h3
Ahora, usando los datos, tenemos

⎛ ⎞
−37
(0) (0) (0)
F (x1 , x2 , x3 ) = ⎝ −5 ⎠ ,
−3
Sergio Plaza 69

⎛ ⎞
0 1 0
(0) (0) (0)
JF (x1 , x2 , x3 ) = JF (0, 0, 0) = ⎝ 1 0 0 ⎠.
1 1 1

Por lo tanto el sistema de ecuaciones lineales es dado por

⎛ ⎞⎛ ⎞ ⎛ ⎞
0 1 0 h1 −37
⎝ 1 0 0 ⎠ ⎝ h2 ⎠ = − ⎝ −5 ⎠
1 1 1 h3 −3

De aquı́, h2 = 37 , h1 = 5 y h1 + h2 + h3 = 3 , de donde h3 = −39 .


Ahora, como

⎛ (1)
⎞ ⎛ (0) ⎞ ⎛ ⎞
x1 x1 h1
⎜ (1) ⎟ ⎜ (0) ⎟ ⎝
⎝ x2 ⎠ = ⎝ x2 ⎠ + h2 ⎠ ,
(1) (0) h3
x3 x3

se tiene que
⎛ (1)
⎞ ⎛ ⎞
x1 5
⎜ (1) ⎟ ⎝
⎝ x2 ⎠ = 37 ⎠
(1) −39
x3

el cual coincide, obviamente, con el cálculo hecho en la parte (a) .


El número de condición con respecto al radio espectral, significa que usando la norma sub-
ordinada || · ||2 , se tiene que

)
max{|λ| : λ valor propio de AAT }
k(A) = .
min{|λ| : λ valor propio de AAT }

LLamando

⎛ ⎞
0 1 0
A=⎝ 1 0 0 ⎠,
1 1 1

Se tiene que
⎛ ⎞
0 1 1
AT = ⎝ 1 0 1 ⎠.
0 0 1

Luego

⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 0 0 1 1 1 0 1
AAT = ⎝ 1 0 0 ⎠·⎝ 1 0 1 ⎠=⎝ 0 1 1 ⎠
1 1 1 0 0 1 1 1 3
Sergio Plaza 70

⎛ ⎞
1−λ 0 1
AA − λI = ⎝ 0
T
1−λ 1 ⎠
1 1 3−λ
y

det(AAT − λ) = (1 − λ)2 (3 − λ) − (1 − λ) − (1 − λ) = (1 − λ)((1 − λ)(3 − λ) − 2)

luego, det(AAt − λI) = 0 si λ1 = 1 o λ2 − 4λ + 3 = 0 , de donde λ2 = 3 y λ3 = 1 . Luego,


max{|λ| : λ valor
* propio de AAT } = 3 y min{|λ| : λ valor propio de AAT } = 1 . Por lo

tanto, k(A) = 31 = 3 . Como el número de condición de A es relativamente pequeño, esl
sistema está bien condicionado y es estable.

Problema 2.6 Resuelva usando el método de Newton para varias variables, el siguiente sistema
no lineal:
3x21 − x22 = 0
3x1 x22 − x31 = 1

Para esto, tome como punto inicial x(0) = (1, 1)T y realice dos iteraciones, es decir, calcule x(1)
y x(2) .

Solución. Tenemos el sistema de ecuaciones no lineales


f (x, y) = 3x2 − y 2 = 0
g(x, y) = 3xy 2 − x3 − 1 = 0 .

Sea F (x, y) = (f (x, y), g(x, y)) . El método de Newton aplicado a F es dado por

NF (x, y) = (x, y) − (JF (x, y))−1 F (x, y) .

Ahora,

⎛ ∂f ∂f ⎞
(x, y) (x, y)
⎜ ∂x ∂y ⎟  
⎜ ⎟ 6x −2y
JF (x, y) = ⎜ ⎟= .
⎝ ∂g ∂g ⎠ 3y − 3x2
2
6xy
(x, y) (x, y)
∂x ∂y

Luego, det JF (x, y) = 36x2 y + 2y(3y 2 − 3x2 ) = 36x2 y + 6y 3 − 6x2 y = 30x2 y + 6y 3 =


6y(5x2 + y 2 ) . Por lo tanto det JF (x, y) = 0 si y = 0 y (x, y) = (0, 0) .
Como x(0) = (1, 1)

   
x1 x0
= − (JF (x0 , y0 ))−1 F (x0 , y0 )
y1 y0
y  
6 −2
JF (x0 , y0 ) = JF (1, 1) =
0 6
Sergio Plaza 71

se tiene que det JF (x0 , y0 ) = 36 y

⎛ ⎞ ⎛ 1 1 ⎞⎛ ⎞
6 2 6 18 2
1 ⎝ ⎠=⎝ ⎠⎝ ⎠
(JF (1, 1))−1 =
36 1
0 6 0 6 1
 
2 1 1
= + ,
6 18 6
 
7 1
= ,
18 6

   
(1) 7 1 11 5
x = (x1 , y1 ) = (1, 1) − , = ,
18 6 18 6

Para x(2) , tenemos

⎛ ⎞
11 5
  ⎜ −
11 5 ⎜ 3 3 ⎟

JF (x1 , y1 ) = JF , =⎜ ⎟
18 6 ⎝ 26 55 ⎠
27 18
2075
luego det JF (x1 , y1 ) = .
162
Ahora,

⎛ ⎞ ⎛ ⎞
55 5 99 54
⎜ 18 ⎟ ⎜
3 ⎟ ⎜ 415 415 ⎟
162 ⎜ ⎟
(JF (x1 , y1 ))−1 = ⎜ ⎟=⎜ ⎟
2075 ⎝ 26 11 ⎠ ⎝ 156 594 ⎠
− −
27 3 2075 2075

Ası́

⎛ ⎞⎛ ⎞
99 54 23
⎜ 415 ⎟ ⎜
415 ⎟ ⎜ 54 ⎟
⎜ ⎟
(JF (x1 , y1 ))−1 F (x1 , y1 ) = ⎜ ⎟⎜ ⎟
⎝ 156 594 ⎠ ⎝ 131 ⎠

2075 2075 2916
 
1204 2147
= ,−
11205 112050

= (0.1074520303 , −0.01916108880) .

Luego,
Sergio Plaza 72

   
11 5
1204 2147
x(2) = (x2 , y2 ) = , ,− −
18 5
11205 112050
 
11287 47761
= ,
22410 56025

= (0.5036590808 , 0.8524944221)

Una forma alternativa y más simple es resolver en cada paso un sistema de ecuaciones lineales,
para ello recordemos que el método de Newton es dado
     
xn+1 xn hn
= + ,
yn+1 yn kn

 
hn
donde es la solución del sistema de ecuaciones lineales
kn
 
hn
JF (xn , yn ) = −F (xn , yn )
kn

Tenemos, F (x, y) = (3x2 − y 2 , 3xy 2 − x3 − 1)

 
6x −2y
JF (x, y) =
3y 2 − 3x2 6xy
 
6 −2
Como (x0 , y0 ) = (1, 1) nos queda JF (x0 , y0 ) = y F (x0 , y0 ) = (2, 1) , obtenemos
0 6
ası́ el sistema de ecuaciones lineales

    
6 −2 h0 2
=−
0 6 k0 1
1
de donde 6k0 = −1 , es decir, k0 = − ; la otra ecuación es 6h0 − 2k0 = −2 , y de aquı́
6
7
h0 = − . Luego
18
⎛ ⎞ ⎛ ⎞
⎛ ⎞ ⎛ ⎞ −7 11
x1 1 ⎜ 18 ⎟ ⎜ 18 ⎟
⎝ ⎠=⎝ ⎠+⎜

⎟ ⎜
⎟=⎜


⎝ −1 ⎠ ⎝ 5 ⎠
y1 1
6 6
 
x2
Para debemos resolver el sistema
y2
 
h1
JF (x1 , y1 ) = −F (x1 , y1 )
k1

Este sistema es
Sergio Plaza 73

⎛ ⎞ ⎛ ⎞
11 5 23
⎜ 3 −  
⎜ 3 ⎟
⎟ h1

⎜ 54 ⎟

⎜ ⎟ =− ⎜ ⎟
⎝ 26 55 ⎠ k1 ⎝ 131 ⎠
27 18 2916
cuya solución es
 
1024 2147
(h1 , k1 ) = − , = (−0.10745203030 , 0.01916108880) .
11205 112050

Luego,
 
11 1024 5 2147
(x2 , y2 ) = (x1 , y1 ) + (h1 , k1 ) = − , + = (0.5036590808 , 0.8524944221)
18 11205 6 112050

2.11 Ejercicios
Problema 2.1 Use el manejo algebraico para demostrar que las siguientes funciones tienen un
punto fijo en p exactamente cuando f (p) = 0 , donde f (x) = x4 + 2x2 − x − 3 .

1/4
1. g1 (x) = 3 + x − 2x2
 1/2
x+3−x4
2. g2 (x) = 2

 1/2
x+3
3. g3 (x) = x2 +2

3x4 +2x2 +3
4. g4 (x) = 4x3 +x−1

Problema 2.2 1. Efectúe cuatro iteraciones, si es posible hacerlo, en las funciones definidas
en el problema anterior, considerando p0 = 1 y pn+1 = g (pn ) , n = 0, 1, 2, 3 .

2. ¿Cuál función, a su juicio, dará la mejor aproximación a la solución?

Problema 2.3 Se proponen los siguientes métodos para calcular 211/3 . Clasifique por orden,
basándose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.

20pn−1 + 21
p2
n−1
1. pn = 21

p3n−1 −21
2. pn = pn−1 − 3p2n−1

p4n−1 −21pn−1
3. pn = pn−1 − p2n−1 −21

 1/2
21
4. pn = pn−1


Problema 2.4 Aplique el método de bisección para determinar c3 , para f (x) = x − cos(x)
en [0, 1] .
Sergio Plaza 74


Problema 2.5 Sea f (x) = 3 (x + 1) x − 12 (x − 1) . Aplique el método de bisección para
determinar c3 en los siguientes intervalos
 
1. −2, 32
 
2. 54 , 52

Problema 2.6 Aplique en los siguientes intervalos el método de bisección para determinar las
aproxiamciones a las soluciones de x3 − 7x2 + 14x − 6 = 0 con una exactitud de 10−2 .

1. [0, 1]
 
2. 1, 165
 
3. 165 ,4

Problema 2.7 Aplique en los siguientes intervalos el método de bisección para determinar las
aproximaciones a las soluciones de x4 − 2x3 − 4x2 + 4x + 4 = 0 con una exactitud de 10−2 .

1. [−2, −1]

2. [0, 2]

3. [2, 3]

4. [−1, 0]

Problema 2.8 Aplique el método de bisección para determinar una aproximación a la solución
 
de tan(x) = x con una exactitud de 10−3 en el intervalo 4, 92 .

Problema 2.9 Aplique el método de bisección para determinar una aproximación a la solución
 
de 2 + cos (ex − 2) − ex = 0 con una exactitud de 10−3 en el intervalo 12 , 32

Problema 2.10 En cada caso aplique el método de bisección para determinar una aproxi-
mación a la solución con una exactitud de 10−5 .

1. x − 2−x = 0 para x ∈ [0, 1] .

2. e−x − x2 + 3x − 2 = 0 para x ∈ [0, 1] .


2
3. 2x cos (2x) − (x + 1) = 0 para x ∈ [−3, −2] y para x ∈ [−1, 0] .
 3  
4. x cos (x) − 2x2 + 3x − 1 = 0 para x ∈ 15 , 10 y para x ∈ 65 , 13
10 .


Problema 2.11 Determine una aproximación de 3 con una exactitud de 10−4 usando el
método de bisección.

Problema 2.12 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximación con una exactitud de 10−3 de la solución de x3 + x − 4 = 0 en el intervalo
[1, 4] .
Sergio Plaza 75

Problema 2.13 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximación con una exactitud de 10−3 de la solución de x3 − x − 1 = 0 en el intervalo
[1, 2] .

10
Problema 2.14 Sea f (x) = (x − 1) , p = 1 y pn = 1 + n1 . Demuestre que |f (pn )| < 10−3
para todo n > 1 , mientras que |p − pn | < 10−3 sólo si n > 1000 .
n 1
Problema 2.15 Sea (pn )n∈N la sucesión dada por pn = k=1 k . Demuestre que (pn )n∈N
diverge aún cuando limn→∞ (pn − pn−1 ) = 0 .

Problema 2.16 Los cuatro siguientes métodos tienen por objeto calcular 71/5 . Clasifique por
orden, basándose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.

 1/2
7−p3n−1
1. pn = 1 + p2n−1

p5n−1 −7
2. pn = pn−1 − p2n−1

p5n−1 −7
3. pn = pn−1 − 5p4n−1

p5n−1 −7
4. pn = pn−1 − 12

5. Aplique el método de iteración de punto fijo para determinar una solución con una exac-
titud de 10−2 para x4 − 3x2 − 3 = 0 en [1, 2] . Utilice p0 = 1 .

Problema 2.17 La ecuación x2 − x − 1 = 0 tiene una raı́z positiva α ≈ 1.61803398 · · · .


Proponga un método iterativo convergente, no Newton, para aproximar dicha raı́z.
x2 + 1
Indicación. Tenemos x2 − x− = 0 ⇔ 2x2 − x = x2 + 1 ⇔ x(2x − 1) = x2 + 1 ⇔ x = .
2x − 1
x2 + 1
Proponemos g(x) = como método iterativo.
2x − 1
   
3 3
Afirmación 1 g : ,2 → ,2
2 2
Afirmación 2 g es una contracción.

Problema 2.18 Considere la ecuación ex − x2 + 3x − 2 = 0 .

1. Proponga un método de punto fijo, explicitando un intervalo [a, b] contenido en [0, 1]


que contenga dicha raı́z, para resolver esta ecuación. Justifique porqué el método por Ud.
propuesto es convergente.

2. Suponga que realizamos iteraciones con el método propuesto en el item anterior hasta
obtener un error absoluto no mayor que 10−5 respecto de la raı́z exacta. Sin utilizar
calculadora, encuentre este número de iteraciones, para ellos use el intervalo [a, b] explic-
itado.

Problema 2.19 Sean f (x) = x2 −6 y x0 = 1 . Aplique el método de Newton para determinar


x4 .
Sergio Plaza 76

Problema 2.20 Sean f (x) = −x3 − cos(x) y x0 = −1 . Aplique el método de Newton para
determinar x4 ¿Podrı́amos utilizar x0 = 0 ?

Problema 2.21 Considere la ecuación no lineal


 2 
x +5
cos =0
x4 + 1

se sabe que esta ecuación tiene una única raı́z en el intervalos [0, 1] . Use los métodos de Newton
y secante para aproximar la raı́z. Para Newton use x0 = 0 y para secante use x0 = 0 y x1 = 1 .

Problema 2.22 Sean f (x) = x2 − 6 , x0 = 3 y x1 = 2 determine x3 .

1. Aplique el método de la secante.

2. Aplique el método de Regula Falsi.



3. ¿Que método da una mejor aproximación de 6?

Problema 2.23 Aplique el método de Newton para obtener soluciones con una exactitud de
10−5 para los siguiente problemas.

1. x3 − 2x2 − 5 = 0 , x ∈ [1, 4] .
 
2. x − cos x = 0 , x ∈ 0, π2 .

3. x3 + 3x2 − 1 = 0 , x ∈ [−3, −2] .


 
4. x − 0.8 − 0.2sen(x) = 0 , x ∈ 0, π2 .

5. ex + 2−x + 2 cos(x) − 6 = 0 , x ∈ [1, 2] .

6. ln (x − 1) + cos (x − 1) = 0 , x ∈ [1.3, 2] .
2
7. 2x cos(x) − (x − 2) = 0 , x ∈ [2, 3] .

8. sen(x) − e−x = 0 , x ∈ [0, 1] .

Problema 2.24 Utilice el método de Newton para aproximar con exactitud de 10−5 el valor
de x en la gráfica de y = x2 más cercano del punto (1, 0) .

Problema 2.25 Utilice el método de Newton para aproximar con exactitud de 10−5 el valor
de x en la gráfica de y = x1 más cercano del punto (2, 1) .

Problema 2.26 Con una exactitud de 10−5 y utilizando el método de Newton resuelva la
ecuación 12 + 14 x2 − xsen(x) − 12 cos (2x) = 0 , con condición inicial x0 = π2 . Explique por que
el resultado parece poco usual para el método de Newton. También resuelva la ecuación con
x0 = 5π y x0 = 10π .

Problema 2.27 Considere la función f : R −→ R definida por f (x) = 3x5 − 10x3 + 23x

a) Pruebe que f (x) = 0 tiene una solución en el intervalo [−2, 2] .


Sergio Plaza 77

b) Usando el método de Newton con la condición inicial x0 = 1.07 y el criterio de parada


|f (x)|  10−6 , encuentre una aproximación a una raı́z de f (x) .

c) Usando el método de Newton con la condición inicial x0 = 1.06 realice iteraciones Qué
ocurre en este caso? Explique.

d) Demuestre la convergencia de los iterados del método de Newton cerca de la raı́z que
encontró b).

e) Considere el siguiente método iterativo

f (x)f  (x)
Sf (x) = x − .
(f (x))2 − f (x)f  (x))

Considere las dos condiciones iniciales x0 = 1.07 y x0 = 1.06 y realice las iteraciones en
ambos caso Qué ocurre?

Problema 2.28 Se sabe que la ecuación 2x4 + 24x3 + 61x2 − 16x + 1 = 0 tiene dos raices
cerca de 0.

1. Usando el método de Newton encuentre estas dos raices, con un error absoluto de 10−6 .

2. Considere el método iterativo siguiente

2f (xn )f  (xn )
xn+1 = xn −
2(f  (xn ))2 − f (xn )f  (xn )

encuentre las raı́ces, con un error absoluto de 10−6 .

3. Analizando el error absoluto, compare la rapidez de convergencia de ambos métodos.

4. Pruebe que este nuevo método iterativo tiene orden de convergencia 3 alrededor de cada
raı́z simple de una ecuación f (x) = 0 , donde f (x) es al menos 3 veces derivable, con
f  (x) continua.

Problema 2.29 Considere la ecuación ex − 4x2 = 0 .

(a) Usando el método de regula falsi encuentre una raı́z positiva de la ecuación.

(b) Proponga un método de punto fijo, no Newton, y demuestre, sin iterar, que converge a
la raı́z encontrada en (a) de la ecuación.

(c) Usando el método de punto fijo propuesto en (b), encuentre la solución buscada con una
precisión de ε = 10−3 , considerando como criterio de parada |f (xn )|  ε .

Problema 2.30 Considere la ecuación x3 −x2 −x−1 = 0 , la cual posee una solución α ∈ [1, 2] .
1 1
Se propone el método iterativo xn+1 = g(xn ) , donde g(x) = 1 + + 2 , para resolver la
x x
ecuación.

1. Verifique las condiciones para que el método iterativo propuesto sea convergente.
Sergio Plaza 78

2. Si elige x0 ∈ [a, b] ⊂ [1, 2] arbitrario para comenzar las iteraciones, estime el número de
iteraciones que debe realizar para obtener xk que satisface la condición |xk+1 − xk | 
5 · 10−5 .

Problema 2.31 Considere al ecuación −x3 + 2x2 + 10x − 20 = 0 .

(a) Proponga un método


√ iterativo de punto fijo, no Newton, el cual sea convergente a la
solución α = − 10 . La demostración de la convergencia debe hacerse sin iteraciones.

(b) Usando el método que propuso en a), encuentre una solución aproximada a α con un
error de no más de 10−2

Problema 2.32 Considere la ecuación x3 −x2 −x−1 = 0 , la cual posee una solución α ∈ [1, 2] .
1 1
Se propone el método iterativo xn+1 = g(xn ) , donde g(x) = 1 + + 2 , para resolver la
x x
ecuación.

1. Verifique las condiciones para que el método iterativo propuesto sea convergente.

2. Si elige x0 ∈ [a, b] ⊂ [1, 2] arbitrario para comenzar las iteraciones, estime el número de
iteraciones que debe realizar para obtener xk que satisface la condición |xk+1 − xk | 
5 · 10−5 .

Problema 2.33 Utilice el método de Newton para encontrar las soluciones de los siguientes
problemas con una exactitud de 10−5 , usando uno de los criterios de paradas especificados
arriba.

1. x2 − 2xe−x + e−2x = 0, x ∈ [0, 1] .


 √  x √ 
2. cos x + 2 + x + 2 = 0, x ∈ [−2, −1] .
2
3. x3 − 3x2 2−x + 2x4−x − 8−x = 0, x ∈ [0, 1] .
2 3
4. e6x + 3 (ln 2) e2x − e4x ln 8 − (ln 2) , x ∈ [−1, 0] .

Problema 2.34 Repita el ejercicio anterior, aplicando el método de Newton modificado ¿Mejora
la rapidez o la exactitud en comparación con el ejercicio 1.?

Problema 2.35 Demuestre que las siguientes sucesiones convergen linealmente a p = 0 ¿Qué
tan grande debe ser n para que |pn − p|  5 × 10−2 ?
1 1
a.) pn = n, n  1, b. ) pn = n2 , n1

n
Problema 2.36 Demuestre que la sucesión pn = 10−2 converge cuadráticamente a cero.

c
Problema 2.37 Demuestre que la sucesión pn = 10−n no converge cuadráticamente a cero,
sin importar el tamaño del exponente c > 1 .

Problema 2.38 Demuestre que el algoritmo de bisección determina una sucesión con una cota
de error que converge linealmente a cero.
Sergio Plaza 79

Problema 2.39 El método iterativo para resolver f (x) = 0 , dado por el método de punto
fijo g (x) = x , donde
 2
f (pn ) f  (pn ) f (pn )
pn+1 = g (pn ) = pn −  − ,
f (pn ) 2f  (pn ) f  (pn )

para n = 1, 2, 3, . . . . Puebe que α es una raı́z simple de f , entonces se tiene g(α) = α ,


g  (α) = g  (α) = 0 , esto generalmente, producirá una convergencia cúbica (α = 3) .

Problema 2.40 Considere el siguiente sistema de ecuaciones

x2 + y 2 − 9 = 0
2 2
x + y − 8x + 12 = 0

1. Explicite por componentes y simplifique al máximo, el esquema iterativo definido por el


método de Newton.

2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.

3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.6, 0.7) y
estime √ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
( 21
8 , 135
8 ).

Problema 2.41 Considere el siguiente sistema de ecuaciones



x2 + y 2 − 16 = 0
x2 + y 2 − 8x = 0 .

1. Explicite por componentes y simplifique al máximo, el esquema iterativo definido por el


método de Newton.

2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.

3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.2, 3.4) y
estime
√ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
(3, 12 ) .

Problema 2.42 Considere el sistema de ecuaciones no lineales



−x21 + 8x1 − x22 − 6 = 0
−x21 x2 − x1 + 8x2 − 6 = 0 .

1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.

2. Proponga un método de punto fijo convergente para determinar la solución α = (α1 , α2 ) ∈


D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 80

3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton en este caso particular?

4. Realice 2 iteraciones con el método propuesto, comenzando con (0, 0) (especifique cual
de los métodos está usando)

Problema 2.43 Considere al ecuación −x3 + 2x2 + 10x − 20 = 0 .

1. Proponga un√método iterativo de punto fijo, no Newton, el cual sea convergente a la


solución α = 10 . La demostración de la convergencia debe hacerse sin iteraciones.

2. Usando el método que propuso en 1), encuentre una solución aproximada a α con un
error de no más de 10−2

Problema 2.44 Considere la función f (x) = e1/x − x , definida para x > 0 .

1. Proponga un método iterativo convergente, no Newton, para encontrar una solución de


la ecuación f (x) = 0 . Use el método propuesto por usted para encontrar una solución
de f (x) = 0 , con una precisión ε = 10−3 , con el criterio de parada |xn+1 − xn |  ε , y
comenzando con x0 = 1.76. La demostración de la convergencia debe hacerla en forma
teórica.

2. Demuestre que al menos uno de los métodos iterativos propuestos abajo para encontrar la
solución de f (x) = 0 es convergente (ambos podrı́an ser convergentes). La demostración
de la convergencia debe hacerse en forma teórica.

xn − e1/xn
xn+1 = g1 (xn ) = xn − x2n
x2n + e1/xn
1 − xn ln(xn )
xn+1 = g2 (xn ) = xn + .
1 + ln(xn )

Use el métodos que demostró ser convergente para encontrar una solución de f (x) = 0 ,
con una precisión ε = 10−3 , con el criterio de parada |xn+1 − xn |  ε , y comenzando
con x0 = 1.76 .

3. Use el método de la secante para encontrar una solución de f (x) = 0 , con una precisión
ε = 10−3 , con el criterio de parada |xn+1 − xn |  ε , comenzando con x0 = 1.76 y
x1 = 1.763 .

4. En los casos anteriores Cuál de los métodos converge más rápido?

Problema 2.45 Considere el sistema de ecuaciones no lineales


2
x1 − 10x1 + x22 + 8 = 0
x1 x22 + x1 − 10x2 + 8 = 0 .

1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.

2. Proponga un método de punto fijo convergente para determinar la solución α = (α1 , α2 ) ∈


D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 81

3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton en este caso particular?

4. Realice 2 iteraciones con el método propuesto, comenzando con (0, 0) (especifique cual
de los métodos está usando)

Problema 2.46 Considere el sistema de ecuaciones no lineales u(x, y) = 0 , donde



u1 (x, y) = x2 + xy − 10
u2 (x, y) = y + 3xy 2 − 57

1. Proponga un método iterativo de punto fijo convergente, no Newton, para encontrar una
solución al sistema, comenzando con (x0 , y0 ) = (1.5, 3.5)

2. Aplique el método de Newton con las mismas condiciones iniciales. Obtenga dos itera-
ciones hay convergencia en este caso?

3. Si ambos métodos (1) y (2) son convergentes Cuál de ellos converge más rápido a la
solución buscada del sistema?

Problema 2.47 Dado el sistema de ecuaciones no lineales



5 cos(x2 y) − 5 cos(x3 y) = x
sen2 (xy) + π2 cos(x3 y) = y

1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.

2. Proponga un método de punto fijo (no Newton) para encontrar la solución (α, β) del
sistema. La demostración de la convergencia debe hacerse sin iterar.

3. Si considera una precisión ε = 10−3 . Cuál es la solución aproximada que se obtiene?


(use el criterio de parada ||(xn , yn ) − (xn−1 , yn−1 )||∞  ε.)

Problema 2.48 Dado el sistema de ecuaciones no lineales



sen(3x2 y) = x
cos(x) − 3 cos(x3 y 3 ) = y

1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.

2. Proponga un método de punto fijo (no Newton) para encontrar la solución (α, β) del
sistema. La demostración de la convergencia debe hacerse teóricamente.

3. Si considera una precisión ε = 102 y la norma ||(x, y)||M = max{|x|, |y|} Obtenga la
solución aproximada al sistema en este caso.

Problema 2.49 el sistema de ecuaciones no lineales


3
x + x + 4x2 y + 4xy 2 = 0.7
4x3 + 3x − 4x2 y + xy 2 = 0.3
Sergio Plaza 82

1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.

2. Proponga un método de punto fijo (no Newton) para encontrar la solución (α, β) del
sistema. La demostración de la convergencia debe hacerse sin iterar.

3. Si considera una precisión ε = 103 Cuál es la solución aproximada que se obtiene?

Problema 2.50 Dado el sistema de ecuaciones no lineales


4/3
x + y 4/3 = b4/3
y − ax = 0
 4/3 3/4
donde a = 1/4 y b = 1 + 14

1. Proponga un método de punto fijo, no Newton, y demuestre teóricamente que converge a


la raı́z α = (1, 1/4) ,

2. Proponga un método casi-Newton y demuestre teóricamente que converge a la raı́z α =


(1, 1/4) .

3. Partiendo del punto inicial (x0 , y0 ) = (0.95, 0.23) realice 2 iteraciones con ambos métodos.
Compare los resultados. Cuál es su conclusión?

Problema 2.51 Considere el sistema de ecuaciones no lineales



e−x
2

x = 1+h
⎩ 1 + y2
y = 0.5 + h arctan(x2 + y 2 ) .

Muestre que si h es elegido suficientemente pequeño y no cero, entonces el sistema tiene una
única solución α = (α1 , α2 ) en alguna región rectangular. Además, muestre que el método
iterativo de punto fijo definido por el sistema es convergente a la solución α para cualquier
elección (x0 , y0 ) elegida en la región que determinó. (La demostración de la convergencia debe
hacerse sin iterar.)

Problema 2.52 Considere el sistema de ecuaciones no lineales


2
x + y 2 − 2x − 2y + 1 = 0
x + y − 2xy = 0 .

1. Proponga un método de punto fijo, no Newton, convergente para encontrar una solución
del sistema. La demostración de la convergencia debe hacerse sin iterar.

2. Demuestre sin iterar que el método de Newton es convergente en un región que contiene
una solución del sistema, y encuentre una solución con una aproximación de 10−3 usando
la norma || ||∞ .

Problema 2.53 Suponga que p es una raı́z de multiplicidad m  2 de la ecuación f (x) = 0 ,


donde f  (x) es continua en un intervalo abierto que contiene a p .
Sergio Plaza 83

f (x)
(a) Demuestre que el método iterativo de punto fijo g(x) = x − m tiene orden de
f  (x)
convergencia la menos 2.
(b) Use la parte a) para calcular la raı́z positiva de x4 − 1 = 0 , redondeando cada operación
a 4 dı́gitos y con una precisión de 10−3 , comenzando con x0 = 0.8 .

Problema 2.54 Considere la ecuación e1−x − 1 = 0 .

(a) Demuestre que ella tiene una única raı́z, la cual es positiva.
(b) Demuestre que el método de Newton asociado a esta ecuación es convergente para cualquier
condición inicial x0 ∈ [0, 10]
(c) Comenzando con la condición inicial x0 = 10 . Realice algunas iteraciones con el método
de Newton Cuál es su conclusión?
(d) Considere el intervalo [0, 10] , use el método de bisección para encontrar una aproximación
a la raı́z, con una precisión de 10−3 . Compare su resultado con lo obtenido en el item
c). Cuál es su conclusión?

Problema 2.55 Considere el polinomio f (x) = 230x4 + 18x3 + 9x2 − 221x − 9 . Se sabe que
este polinomio tiene una raı́z en el intervalo [0, 1] .

a) Use el método de bisección para aproximar la raı́z de f (x) con una presición de 10−3 .
b) Use el método de Newton para aproximar la raı́z de f (x) con una presición de 10−5 ,
comenzando con x0 = 0.3 .
c) Proponga un método iterativo de punto fijo convergente para aproximar la raı́z de f (x) .
La convergencia debe demostrarla sin iterar.

Problema 2.56 Considere el sistema de ecuaciones no lineales



⎨ 3x − cos(yz) − 12 = 0
2 2
x − 81(y + 0.1) + sen(z) + 1.06 = 0

e−xy + 20z + 10π−3
3 = 0

a) Proponga un método iterativo de punto fijo convergente para encontrar la solución del
sistema. La demostración de la convergencia debe hacerse sin iterar.
b) Explı́cite las componentes del método iterativo de Newton para este sistema, y demuestre
la convergencia del método para este caso (teóricamente).
c) Usando el método iterativo convergente que propuso en a), comenzando con el punto
(0.1, 0.1, −0.1) realice iteraciones hasta obtener una aproximación (xk , yk , zk ) de la solución,
la cual satisface la siguiente condición: ||(xk , yk , zk ) − (xk−1 , yk−1 , zk−1 )||∞  10−3 .

Problema 2.57 Dado el sistema de ecuaciones no lineales


x2 + xy 3 = 9
3x2 y − y 3 = 4
Estudie la convergencia del método de Newton para el sistema, suponiendo que su condicións
iniciales son:
Sergio Plaza 84

(a) (x0 , y0 ) = (1.3, 1.7) ,

(b) (x0 , y0 ) = (−1, −2) ,

(c) (x0 , y0 ) = (−3, 0.2)

(d) Realizando 4 iteraciones encuentre una aproximación a la solución en el caso (b)

Problema 2.58 Considere el sistema



x2 + y 2 = 1
2x2 − y = 0

1. Demuestre, sin iterar, que el método iterativo de Newton es convergente para este caso.

2. Usando el método iterativo de Newton, encuentre la solución del sistema ubicada en el


primer cuadrante.

Problema 2.59 Dado el sistema de ecuaciones no lineales

⎧ 2
⎨ x + x(x + y) − 0.5 = 0

y + y(y − x)2 − 0.5 = 0

a) Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.

b) Proponga un método de punto fijo, no Newton, y demuestre, sin iterar, que converge a
(α, β) .

Problema 2.60 Dado el sistema de ecuaciones no lineales


sen(3x2 y) = x
cos(x) − 3 cos(x3 y 2 ) = y

1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.

2. Proponga un método de punto fijo convergente (no Newton) para encontrar la solución
(α, β) del sistema. La demostración de la convergencia debe hacerse teóricamente.

3. Considere una precisión ε = 102 y la norma ||(x, y)||M = max{|x|, |y|} . Obtenga la
solución aproximada al sistema en este caso.

Problema 2.61 Dado el sistema no lineal



x21 + x22 + x1 − x2 − 1 = 0
x21 + 2x22 + x1 + x2 − 1 = 0

y considere la raı́z α = (α1 , α2 )T , tal que α1 > 0 .


Sergio Plaza 85

1. Demuestre sin iterar, que el método de Newton converge a α , si la condición inicial


(0) (0)
x(0) = (x1 , x2 ) se elige suficientemente cerca de α .

2. Partiendo de x(0) = (0.6, 0.1)T y utilizando la máxima capacidad de su calculadora,


resuelva el sistema dado, para la raı́z α mediante el método de Newton con una presición
de 10−2 (utilizando el criterio de parada ||x(k+1) − x(k) ||  ε )

Problema 2.62 Considere la ecuación x4 − 3x3 + 4x2 − 3x + 1 = 0 . Esta tiene una raı́z α = 1

1. Use el método de Newton para determinar dicha raı́z α , partiendo desde x0 = 0.8 y
realizando 5 iteraciones.

2. Use el siguiente método iterativo


f (xn )
xn+1 = xn − 2 .
f  (xn )
para determinar en forma aproximada la raı́z α , comenzando con x0 = 0.8 .

3. Utilizando los resultados de las iteraciones en a) y en b), compare la rapidez de convergen-


cia de ambos métodos, estimando el error relativo de la aproximación x5 , correspondiente.

Problema 2.63 Considere la ecuación

cos(3x) + cos3 (61x) = 0 .

π
1. Proponga un método de punto fijo (no del tipo Newton) convergente a la raı́z α = 2 . La
demostración de convergencia debe hacerse sin iterar.

2. Sin iterar, demuestre que el método de la secante converge a dicha raı́z α .

Problema 2.64 Considere la función f (x) = 2x2 − x + 6e−x − 8 .

1. Usando el método iterativo de Newton, comenzando con x0 = 0.3 . Encuentre una raı́z
negativa de f (x) = 0 con precisión de 10−4 , utilizando la máxima capacidad de dı́gitos
de su calculadora.

2. Usando el método iterativo de la Secante, comenzando con x0 = 0.3 y x1 = 0 . Encuentre


una raı́z negativa de f (x) = 0 con precisión de 10−4 , utilizando la máxima capacidad
de dı́gitos de su calculadora.

3. Considerando los resultados obtenidos en 1) y 2) Qué puede decir acerca de la conver-


gencia de ambos métodos en este caso particular? Compare con los resultados teóricos
relacionados.

Problema 2.65 Considere la ecuación 230x4 + 18x3 + 9x2 − 221x − 9 = 0 .

1. Demuestre (teóricamente) que la ecuación tiene una raı́z α en el intervalo [0, 1] .

2. Usando el método de bisección encuentre la raı́z α , con una precisión de 10−3 . Cuántos
iteraciones serı́an necesarias para obtener una aproximación de la raı́z, con precisión de
10−3 , en el peor de los casos? (Use la fórmula de la cota del error).
Sergio Plaza 86

3. Use el método de Newton para determinar dicha raı́z α , partiendo desde x0 = 0.8 con
una precisión de 10−3 .

Problema 2.66 Considere el sistema de ecuaciones no lineales



4x2 − 40x + 14 y + 8 = 0
1 2
2 xy + 2x − 10y + 8 = 0 .

1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.

2. Proponga un método de punto fijo convergente para determinar la solución α = (α1 , α2 ) ∈


D del sistema. Demuestre la convergencia sin iterar. Realizando iteraciones comenzando
con (x0 , y0 ) = (0, 0) y utilizando la máxima capacidad desu calculadora, obtenga la
solución con una precisión de ε = 0.05 , usando como criterio (xn − xn+1 )2 + (yn − yn+1 )2 
ε.

3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton) en este caso particular?

Problema 2.67 Considere el sistema de ecuaciones no lineales



4x2 − 20x + 14 y + 8 = 0
1 2
2 xy + 2x − 5y + 8 = 0 .

1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.

2. Proponga un método de punto fijo convergente para determinar la solución α = (α1 , α2 ) ∈


D del sistema. Demuestre la convergencia sin iterar. Realizando iteraciones comenzando
con (x0 , y0 ) = (0, 0) y utilizando la máxima capacidad desu calculadora, obtenga la
solución con una precisión de ε = 0.05 , usando como criterio (xn − xn+1 )2 + (yn − yn+1 )2 
ε.

3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton) en este caso particular?

Problema 2.68 Considere la ecuación f (x) = x3 −5x2 +3x−7 = 0 . Se sabe que esta ecuación
tiene una raı́z α cerca de 4.6783 .

1. Use el método de Newton para obtener una aproximación para α con una presición ε =
10−8 , utilizando como criterio de parada |f (xn )| < ε , y como punto inicial a x0 = 4.67 .
Justifique teoricamente la convergencia del método de Newton en este caso.

2. Considere el método iterativo siguiente


2f (xn )f  (xn )
xn+1 = xn − .
2(f  (xn ))2 − f (xn )f  (xn )
Use este método para obtener una aproximación a la raı́z α de la ecuación anterior con
una presición ε = 10−8 , utilizando como criterio de parada |f (xn )| < ε , y como punto
inicial a x0 = 4.67 .
Sergio Plaza 87

3. Cuál de ellos converge más rápido?

Problema 2.69 Considere la función f (x) = e1/x − x , definida para x > 0 .

1. Demuestre que al menos uno de los métodos iterativos propuestos abajo para encontrar la
solución de f (x) = 0 es convergente (ambos podrı́an ser convergentes). La demostración
de la convergencia debe hacerse en forma teórica.

xn − e1/xn 1 − xn ln(xn )
xn+1 = g1 (xn ) = xn − x2n y xn+1 = g2 (xn ) = xn +
x2n + e1/xn 1 + ln(xn )

Use el métodos que demostró que es convergente para encontrar una solución de f (x) = 0 ,
con una precisión ε = 10−3 , con el criterio de parada |xn+1 − xn |  ε , y comenzando
con x0 = 1.76 .

2. Proponga un método iterativo convergente, no Newton, para encontrar una solución de


la ecuación f (x) = 0 . Use el método propuesto por usted para encontrar una solución
de f (x) = 0 , con una precisión ε = 10−3 , con el criterio de parada |xn+1 − xn |  ε , y
comenzando con x0 = 1.76. La demostración de la convergencia debe hacerla en forma
teórica.

3. Use el método de la secante para encontrar una solución de f (x) = 0 , con una precisión
ε = 10−3 , con el criterio de parada |xn+1 − xn |  ε , comenzando con x0 = 1.76 y
x1 = 1.763 .

4. En los casos anteriores Cuál de los métodos converge más rápido?

Problema 2.70 Considere el sistema de ecuaciones no lineales



−x21 + 8x1 − x22 − 6 = 0
−x21 x2 − x1 + 8x2 − 6 = 0 .

1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.

2. Proponga un método de punto fijo convergente para determinar la solución α = (α1 , α2 ) ∈


D del sistema. Demuestre la convergencia sin iterar.

3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
. Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto
en 2) y Newton) en este caso particular?

4. Realice 2 iteraciones con el método propuesto en 2) o 3), comenzando con (0, 0) (especi-
fique cual de los métodos está usando)

Problema 2.71 Considere el siguiente sistema de ecuaciones



x2 + y 2 − 9 = 0
2 2
x + y − 8x + 12 = 0

1. Explicite por componentes y simplifique al máximo, el esquema iterativo definido por el


método de Newton.
Sergio Plaza 88

2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.

3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.6, 0.7) y
estime
√ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
( 8 , 135
21
8 ).

Problema 2.72 Considere al ecuación −x3 + 2x2 + 10x − 20 = 0 .

1. Proponga un√método iterativo de punto fijo, no Newton, el cual sea convergente a la


solución α = 10 . La demostración de la convergencia debe hacerse sin iteraciones.

2. Usando el método que propuso en a), encuentre una solución aproximada a α con un
error de no más de 10−2

Problema 2.73 Considere al ecuación −x3 + 2x2 + 10x − 20 = 0 .

1. Proponga un método
√ iterativo de punto fijo, no Newton, el cual sea convergente a la
solución α = − 10 . La demostración de la convergencia debe hacerse sin iteraciones.

2. Usando el método que propuso en a), encuentre una solución aproximada a α con un
error de no más de 10−2

Problema 2.74 Considere el siguiente sistema de ecuaciones



x2 + y 2 − 16 = 0
x2 + y 2 − 8x = 0

1. Explicite por componentes y simplifique al máximo, el esquema iterativo definido por el


método de Newton.

2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.

3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.2, 3.4) y
estime
√ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
(3, 12 ) .

Problema 2.75 Considere el sistema de ecuaciones no lineales


2
x1 − 10x1 + x22 + 8 = 0
x1 x22 + x1 − 10x2 + 8 = 0 .

1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.

2. Proponga un método de punto fijo convergente para determinar la solución α = (α1 , α2 ) ∈


D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 89

3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton) en este caso particular?

4. Realice 2 iteraciones con el método propuesto en 2) o 3), comenzando con (0, 0) (especi-
fique cual de los métodos está usando)

Problema 2.76 Sea f (x) = (x − 3)5 .

(a) Determine la fórmula de Newton xn+1 = g(xn ) para calcular el cero de la función f .
Tomando como valor inicial x0 = 1, calcule según la fórmula de iteración de Newton
encontrada en la parte (a) los valores de x1 , x2 y x3 .

(b) Calcule usando como valores iniciales x0 y x1 obtenidos en (a), los valores de x2 y x3
usando el método de la secante. ¿Podrı́a usted usar el método de Regula-falsi?. Explique
su respuesta en el caso negativo o partiendo de dos puntos iniciales apropiados x0 y x1 ,
obtenga los valores de x2 y x3 en caso afirmativo.

(c) Demuestre que el método de Newton usado en la parte (a) tiene un orden de convergencia
p = 1. De un método alternativo de iteración que garantice un orden de convergencia
p = 2 y demuestre que efectı́vamente este es su orden de convergencia.

Problema 2.77 Aplique el método de la bisección y regula falsi para encontrar una aproxi-
mación a solución de ecuación x = tan(x) en [4,4.5]. Use una tolerancia de 10−3 .

Problema
√ 2.78 Use el método de la bisección y regula falsi para encontrar una aproximación
a 5 correcta en 5 cifras significativas. Sugerencia: considere f (x) = x2 − 5 .

Problema 2.79 Calcule el número de iteraciones que se requieren usando el método de bisección
para alcanzar una aproximación con una exactitud de 103 a la solución de x3 + x − 4 = 0 que
se encuentra en el intervalo [1, 4] . Obtenga una aproximación de la raı́z con este grado de
exactitud.

Problema 2.80 Sean f (x) = (x − 1)10 , α = 1 y xn = 1 + 1/n . Pruebe que |f (xn )| < 10−3
siempre que n > 1 pero que |α−xn | < 10−3 requiere que n > 1000 . Este ejercicio muestra una
función f (x) tal que |f (xn )| se aproxima a cero, mientras que la sucesión de aproximaciones
(xn )n∈N lo hace mucho más lento.

k=1
Problema 2.81 Sea (xn )n∈N la sucesión definida por xn = 1/k . Pruebe que (xn )n∈N
diverge aún cuando limn→∞ (xn − xn−1 ) = 0 . Este ejercicio muestra una sucesión (xn )n∈N con
la propiedad de que las diferencias xn − xn−1 (en referencia al error relativo) convergen a cero,
mientras que la sucesión (xn )n∈N diverge.

Problema 2.82 El método dede bisección se puede aplicar siempre que f (a)f (b) < 0 . Si f (x)
tiene más de un cero en (a, b) se podrá saber de antemano cuál cero es el que se encuentra al
aplicar el método de la bisección? ilustre su respuesta con ejemplos.
Sergio Plaza 90

Problema 2.83 Las siguientes funciones cumplen con la condición f (a) · f (b) < 0 , donde
a = 0 y b = 1 . Si se aplica el método de bisección en el intervalo [a, b] a cada una de esas
funciones Qué punto se encuentra en cada caso? Es este punto un cero de f ?

−1 1, para x > 0
a. f (x) = (3x − 1) b. f (x) = cos(10x) c. f (x) =
−1, para x  0 .

Problema 2.84 Verifique que se puede aplicar el método de bisección para aproximar el único
cero de la función f (x) = x3 − x − 1 en el intervalo [1, 2] Cuántas iteraciones serán necesarias
para que al aplicar el método de bisección en el intervalo [1,2] se logre una aproximación de por
lo menos 3 cifras decimales exactas? Calcule tal aproximación.

Problema 2.85 Estudie la función g(x) = 1 + x2 como una posible función de iteración de
punto fijo Por qué no es convegente la iteración xn = g(xn−1 ) , n = 1, 2, . . .? .

Problema 2.86 Verifique que cada una de las siguientes funciones gi (x) , i = 1, 2, 3, 4 es una
función de iteración de punto fijo para la ecuación x4 + 2x2 − x − 3 = 0 , es decir, α = gi (α) ,
i = 1, 2, 3, 4 implica que f (α) = 0 , siendo f (x) = x4 + 2x2 − x − 3

a) g1 (x) = (3 + x − 2x2 )1/4


 1/2
3 + x − x4
b) g2 (x) =
2
 1/2
3+x
c) g3 (x) =
x2 + 2

3x4 + 2x2 + 3
d) g4 (x) = .
4x3 + 4x − 1

Efectúe 4 iteraciones, si es posible, con cada una de las funciones de iteración definidas
arriba, tomando x0 = 1 y xn = gi (xn−1 ), i = 1, 2, 3, 4 Cuál función cree usted que da la mejor
aproximación? Explique.

Problema 2.87 Demuestre que la ecuación 2 sin (πx) + x = 0 tiene una única raı́z α ∈
[1/2, 3/2] . Use un método de iteración de punto fijo para encontrar una aproximaión de α con
una precisión de por lo menos tres cifras significativas.

Problema 2.88 Pruebe que la función g(x) = 2 + x − tan−1 (x) tiene la propiedad |g  (x)| < 1
para toda x . Pruebe que g no tiene un punto fijo. Explique porqué esto no contradice los
teoremas sobre existencia de punto fijo.

Problema 2.89 Use un método iterativo de punto fijo para demostrar que la sucesión (xn )n∈N
definida por  
1 2
xn+1 = xn + , n = 0, 1, 2, . . .
2 xn

converge a 2 para x0 > 0 escogido adecuadamente.
En general, si R > 0 , entonces la sucesión (xn )n∈N definida por
Sergio Plaza 91

 
1 R
xn+1 = xn + , n = 0, 1, 2, · · ·
2 xn

converge a R para x0 > 0 escogido adecuadamente. Esta sucesión se usa con frecuencia
en subrutinas para calcular raı́ces cuadradas.

Problema 2.90 Cuál es el valor de la siguiente expresión?

+ *

x= 2+ 2 + 2+

Note√ que esta expresión


√ puede ser interpretada como significado x = limn→∞ xn , donde

x0 = 2, x1 = 2 + 2 = 2 + x0 y ası́ sucesivamente. USe un método de punto fijo con una
función de iteración g(x) apropiada.

Problema 2.91 Resuelva la ecuación 4 cos(x) = ex con una precisión de 5 × 10−5 , es decir,
calcular las iteraciones xn hasta que |xn − xn−1 | < 5 × 10−5 usando

a) El método de Newton con x0 = 1

b) El método de la secante con x0 = π/4 y x1 = π/2 .

Problema 2.92 Use el método de Newton para resolver la ecuación

 x 2 π
sen(x) − = 0, con x0 = .
2 2

Itere hasta obtener una precisión de 5 × 10−5 para la raı́z aproximada con f (x) = (sen(x) −
x 2
2) e parecen los resultados fuera de lo común para el método de Newton? Resuelva también
la ecuación con x0 = 5π y x0 = 10π .

Problema 2.93 se el método de Newton modificado para encontrar una aproximación de la


raı́z de la ecuación

f (x) = x2 + 2xex + e2x = 0

empezando con x0 = 0 y efectuando 10 iteraciones ¿Cúal es la multiplicidad de la raı́z buscada?

Problema 2.94 Se desea resolver la ecuación no lineal f (x) = 0 , donde f : R −→ R tiene


tantas derivadas cuantas sean necesarias Es posible elegir una función h de modo que la fórmula
iterativa siguiente

 2
f (xn ) f (xn )
xn+1 = xn − + h(xn )
f  (xn ) f  (xn )

tenga orden de convergencia 3 a una raı́z simple de f (x) = 0 ?


Sergio Plaza 92

Problema 2.95 Considere una firma que desea maximizar sus ganancias, eligiendo el precio
de venta de su producto, denotado por y y la cantidad gastada en publicidad, denotada por
z . Para esto, se supone que la función de beneficio B viene dada por

B = yx − (z + g2 (x)),

con x = g1 (y, z) = a1 + a2 y + a3 z + a4 yz + a5 z 2 , g2 (x) = e1 + e2 x , y donde

B = Beneficio
x = número de unidades vendidas
y = precio de venta por unidad
z = dinero gastado en publicidad
g1 (y, z) representa una predicción de unidades vendidas
cuando el precio es y y el gasto en publicidad es z
g2 (x) es el costo de producir × unidades

y los parámetros ai y ei son

a1 = 50000, a2 = −5000, a3 = 40, a4 = −1, a5 = −0.002


e1 = 100000, e2 = 2.

Se pide encontrar los valores de y y de z que maximicen el Beneficio B . Para esto, resuelva
el sistema no lineal
∇B(y, z) = 0.

Problema 2.96 Sea f (x) = ex − 1 − cos(πx) . Muestre que la ecuación f (x) = 0 tiene
una única raı́z en [0, 1] . Estudie que ocurre con el método de Newton comenzando con las
condiciones iniciales x0 = −ε y x0 = 1 + ε , x0 = 0 y x0 = 1 .

8x−1
Problema 2.97 Defina f : ]0, ∞[−→ R definida como f (x) = x − ex . Considere los
métodos iterativos
 
1 8xn − 1
xn+1 = f1 (xn ) = (1 + xn exn ) y xn+1 = f2 (xn ) = ln
8 xn
Cual de ellos es convergente a la raı́z de f (x) = 0 más próxima de cero? Cual de ellos es
convergente a la raı́z de f (x) = 0 más próxima de 2?

Problema 2.98

Problema 2.99

2.12 Uso de métodos de integración para obtener fórmulas


iterativas para resolver ecuaciones no lineales
1

1 En una primera lectura, puede obviarse esta sección


Sergio Plaza 93

Es común obtener la fórmula de iteración de Newton

f (x)
Nf (x) = x −
f  (x)

mediante un argumento geométrico. En esta nota veremos que podemos obtener esa fórmula a
partir del Teorema Fundamental del Cálculo.
Del teorema Fundamental del Cálculo tenemos que

 x
f (x) = f (xn ) + f  (t)dt (2.25)
xn

aproximando el valor de la integral por el área del rectángulo de base xn , x y altura f  (xn ) ,
obtenemos
 x
f  (t)dt ≈ f  (xn )(x − xn ) (2.26)
xn

luego, reemplazando esto en (4.18) obtenemos

f (x) ≈ f (xn ) + f  (xn )(x − xn ) (2.27)

si xn es tal que f (xn+1 ) = 0 , tenemos

f (xn ) + f  (xn )(xn+1 − xn ) ≈ 0 , (2.28)

de donde

f (xn )
xn+1 = xn − (2.29)
f  (xn )

que no es otra que la fórmula iterativa de Newton.

2.13 Otras fórmulas iterativas


Ahora si usamos la regla de Simpson para aproximar las integral (que estudiaremos en forma
detallada en un capı́tulo mas adelante)

 x
f  (t)dt ,
xn

obtenemos
 x
x − xn  x + xn
f  (t)dt ≈ [f (x) + 4f  ( ) + f  (xn )] (2.30)
xn 6 2

y tenemos la ecuación
Sergio Plaza 94

x − xn  x + xn
M̂ (x) = f (xn ) + [f (x) + 4f  ( ) + f  (xn )] . (2.31)
6 2

Sea xn+1 la solución de la ecuación M̂ (x) = 0 , entonces obtenemos

x − xn  x + xn
f (xn ) + [f (x) + 4f  ( ) + f  (xn )] = 0 (2.32)
6 2
de donde

6f (xn )
xn+1 = xn − (2.33)
f  (xn+1 ) + 4f  ( xn +x
2
n+1
) + f  (xn )
f (xn )
si reemplazamos xn+1 por xn+1 = xn − f  (xn ) en el lado derecho de la igualdad anterior,
obtenemos la fórmula iterativa

6f (xn )
xn+1 = xn −     (2.34)
f (xn ) 1 f (xn )
f xn − f  (xn ) + 4f  xn − 2 f  (xn ) + f  (xn )

Este es un método de tercer orden de convergencia en las raı́ces simples de f (x) .


Tenemos también el método iterativo

2f (xn )
xn+1 = xn −   (2.35)
f (xn )
f  (xn ) + f  xn − f  (xn )

que también es de orden de convergencia 3 en las raı́ces simples de f (x) . Para obtener esta
fórmula iterativa, aproximamos la integral
 x
f  (t)dt
xn

por la regla de los trapecios, es decir,


 x
x − xn
f  (t)dt ≈ (f ( (x) + f  (xn )) . (2.36)
xn 2

Resolviendo la ecuación

(x − xn ) 
Mf (x) = f (xn ) + (f (x) + f  (xn )) = 0 , (2.37)
2
si xn+1 es su solución, obtenemos

(xn+1 − xn ) 
f (xn ) + (f (xn ) + f  (xn+1 )) = 0 , (2.38)
2
de donde

2f (xn )
xn+1 = xn − (2.39)
f  (xn ) + f  (xn+1 )
Sergio Plaza 95

reemplazando xn+1 por xn+1 = xn − ff(x n)


(xn ) en el lado derecho de esta última igualdad, tenemos

2f (xn )
xn+1 = xn −  . (2.40)
f (xn )
f  (xn ) + f  xn − f  (xn )
Capı́tulo 3

Sistemas de Ecuaciones Lineales

Sistemas de ecuaciones lineales se utilizan en muchos problemas de ingenierı́a y de las ciencias,


ası́ como en aplicaciones de las matemáticas a las ciencias sociales y al estudio cuantitativo de
problemas de administración y economı́a.
En este capı́tulo se examinan métodos iterativos y métodos directos para resolver sistemas
de ecuaciones lineales

⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1


⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (3.1)

⎪ .


an1 x1 + an2 x2 + · · · + ann xn = bn .

Este sistema puede ser expresado en la forma matricial como

Ax = b, (3.2)
T T
donde A = (aij )n×n ∈ M (n × n, R) , b = (b1 , b2 , . . . , bn ) ∈ Rn y x = (x1 , x2 , . . . , xn ) ∈
Rn es la incógnita.
En la siguiente sección estudiaremos algunos métodos directos para resolver sistemas de
ecuaciones lineales, posteriormente abordaremos algunos métodos iterativos .

3.1 Normas matriciales


Para estudiar algunos métodos iterativos que nos permitan resolver sistemas de ecuaciones
lineales, necesitamos de algunos conceptos básicos de Álgebra Lineal.

3.1.1 Normas vectoriales


Sea V un espacio vectorial de dimensión finita.

Definición 3.1 Una norma en V es una función || || : V −→ R que satisface

N1) x  0 para todo x ∈ V ,

96
Sergio Plaza 97

N2) ax = |a| x para todo x ∈ V y todo a ∈ R ,

N3) x + y  x + y para todo x, y ∈ V (desigualdad triangular).

Ejemplo 44 En Rn podemos definir las siguientes normas


n
1.  (x1 , x2 , . . . , xn ) 2 = ( i=1 x2i )1/2 (norma euclideana)

2.  (x1 , x2 , . . . , xn ) ∞ = max { |xi | : 1  i  n }



n
3.  (x1 , x2 , . . . , xn ) 1 = |xi |
i=1
n
4. ||(x1 , x2 , . . . , xn )||p = ( i=1 |xi |p )1/p (norma p ).

Ejemplo 45 Denotemos por V = M (n × n, R) el espacio vectorial real de las matrices de


orden n × n con entradas reales. Definimos las siguientes normas en V

1. ||A||2 = traza(AAT )
 1/2  n 1/2
n 2 n 2
2. ||A||F = i,j=1 aij = i=1 j=1 aij (norma de Fröbenius)

3. ||A||α,β = sup{||Ax||β : x ∈ Rn , con xα = 1} , donde || ||β y || ||β , denotan


normas cualesquiera norma sobre Rn . Esta norma es llamada norma subordinada a las
norma en Rn .
Notemos que también se tiene
,
Axβ
Aα,β = sup : x ∈ R , xα = 0
n
.
xα

La verificación que lo anterior define una norma sobre el espacio vectorial M (n × n, R)


no es difı́cil, por ejemplo N1 es inmediata, para verificar N2, usamos la propiedad sigu-
iente del supremo de conjuntos en R , sup (λA) = λ sup(A) , para todo λ  0 , donde
λA = {λx : x ∈ A} . Finalmente, para verificar N3, usamos la propiedad sup (A + B) 
sup(A) + sup(B) , donde A + B = { x + y : x ∈ A, y ∈ B } .

Observación.

1. Si A ∈ M (n × n, R) es no singular, esto es, det(A) = 0 , entonces


1
inf{||Ax|| : ||x|| = 1} = .
||A−1 ||

2. ||A||2 = λmax , donde λmax es el mayor valor propio de AAT .

3. Si A ∈ M (n × n, R) es no singular, entonces
1 1
||A−1 ||2 = =√ ,
inf{||Ax||2 : ||x||2 = 1} λmin

donde λmin es el menor valor propio de AAT .


Sergio Plaza 98

4. ||A||2 = ||AT ||2 .

5.

 

A 0

0 B

= max{||A||2 , ||B||2 } .
2

Teorema 3.1 Para A ∈ M (n × n, R) y x ∈ Rn , se tiene que Ax  A x .

Demostración. Desde la definición de norma matricial se tiene que ||A||  ||Ax|| ||x|| , para
todo x ∈ Rn , con x = 0 , de donde ||Ax||  ||A|| ||x|| , y como esta última desigualdad vale
trivialmente para x = 0 , el resultado se sigue.

Ejemplo 46 Si en Rn elegimos la || ||∞ , entonces la norma matricial subordinada viene dada


por

||A||∞ = sup {Ax∞ : x∞ = 1}


⎧ ⎫
⎨-n -
n -
n -
n ⎬
= max |a1j |, |a2j |, . . . , |aij |, . . . , |anj | .
⎩ ⎭
j=1 j=1 j=1 j=1

Ejemplo 47 Si en Rn elegimos la || ||1 , entonces la norma matricial subordinada viene dada


por

||A||1 = sup {Ax1 : x1 = 1}


1 n 2
- -
n -
n -
n
= max |ai1 |, |ai2 |, . . . , |aij |, . . . , |ain | .
i=1 i=1 i=1 i=1

Una de las normas más usadas en Algebra Lineal es la norma de Fröbenius la cual es dada
por
⎛ ⎞1/2
-n -m
||A||F = ⎝ a2ij ⎠ , A ∈ M (m × n, R)
i=1 j=1

y también las p –normas ( p  1 ), las cuales son dadas por


,
||Ax||p
||A||p = sup : x = 0 .
||x||p

Teorema 3.2 Para cualquier norma matricial subordinada se tiene

1.  I  = 1.

2. AB  A · B .

Demostración. Del teorema (3.1) para todo x ∈ Rn se tiene que

||ABx||  ||A|| · ||Bx||  ||A|| · ||B|| ||x|| ,

de donde el resultado se sigue.


Sergio Plaza 99

Ejemplo 48 No toda norma matricial es subordinada a alguna norma en Rn . Para verlo,


usamos la parte 2 del teorema anterior.
Definamos la norma matricial

||A||Δ = max |ai,j | .


i,j=1,...,n

Afirmamos que esta es una norma matricial (se deja al lector la verificación) y no es subor-
dinada a ninguna norma en M (n × n, R) .
En efecto, tomemos las matrices
 
1 1
A=B= .
0 1

Tenemos ||A||Δ = ||B||Δ = 1 y como


 
1 2
AB =
0 1

se tiene que ||AB||Δ = 2 > ||A||Δ ||B||Δ = 1 .

Teorema 3.3 Para las normas matriciales definidas anteriormente valen las siguientes rela-
ciones. Sea A ∈ M (n × n, R) , entonces

1. ||A||2  ||A||F  n ||A||2

2. ||A||Δ  ||A||2  n ||A||Δ



3. √1n ||A||∞  ||A||2  n ||A||∞

4. √1 ||A||1  ||A||2  n ||A||1 .
n

Teorema 3.4 Sea A ∈ M (n × n, R) , con  A  < 1 , entonces I − A es una matriz que tiene
∞
inversa, la cual viene dada por (I − A)−1 = Ak , donde A0 = I . Además, se tiene que
3 3 k=0
3 −1 3 1
3(I − A) 3  .
1 − A

Demostración. Es sólo cálculo y se deja a cargo del lector.

Teorema 3.5 Sean A, B ∈ M (n × n, R) tales que I − AB  < 1 entonces


 A y B tienen 
−1
∞ k −1 ∞ k
inversas, las cuales son dadas por A = B k=0 (I − AB) y B = k=0 (I − AB) A,
respectivamente,.

Demostración. Directa desde el teorema anterior.

Definición 3.2 Sea A ∈ M (n × n, R) , decimos que λ ∈ C es un valor propio de A si la


matriz A − λ I no es invertible, en otras palabras, λ es solución de la ecuación polinomial

pA (λ) = det (A − λ I) = 0,
Sergio Plaza 100

donde p (λ) es el polinomio caracterı́stico de A . Se define el espectro de A como el conjunto


de sus valores propios, es decir,

σ(A) = {λ ∈ C : λ valor propio de A} .

Observación. El polinomio caracterı́stico de A , p(λ) , tiene grado menor o igual a n .

Definición 3.3 Sea A ∈ M (n × n, R) , definimos el radio espectral de A por

ρ (A) = max { |λ| : λ ∈ σ(A)} .

Observación. Geométricamente ρ (A) es el menor radio tal que el cı́rculo centrado en el origen
en el plano complejo con radio ρ(A) contiene todos los valores propios de A .

Observación. Si λ = a + ib ∈ C , su valor absoluto o norma es dado por | λ | = a2 + b2 .

Teorema 3.6 Se tiene ρ (A) = inf A , donde el ı́nfimo es tomado sobre todas las normas
matriciales definidas sobre el espacio vectorial M (n × n, R) .

Observación. Desde la definición de las norma matriciales || ||∞ y || ||1 vemos que calcularlas
para una matriz dada es fácil. Para lo norma || ||2 el cálculo no es tan sencillo, pero tenemos
el siguiente resultado.

Teorema 3.7 Sea A ∈ M (n × n, R) . Entonces

' ( 1/2
||A||2 = max |λ| : λ ∈ σ(AT A) ,

en otras palabras, ||A||2 es la raı́z cuadrada del mayor valor propio de la matriz AT A .

Corolario 3.1 Si A ∈ M (n × n, R) es simétrica, entonces

||A||2 = max{|λ| : λ ∈ σ(A)} .

3.2 Número de condición


Consideremos el sistema Ax = b , donde A es una matriz invertible, por lo tanto tenemos que
xT = A−1 b es la solución exacta.

Caso 1: Se perturba A−1 para obtener una nueva matriz B , la solución x = A−1 b resulta
perturbada y se obtiene un vector xA = Bb que deberı́a ser una solución aproximada al sistema
original. Una pregunta natural ¿es que ocurre con E(xA ) = xT − xA  ? Tenemos

xT − xA  = xT − Bb = xT − BAxT  = (I − BA) xT   I − BA xT 

de donde obtenemos que

E (xA ) = xT − xA   I − BA xT 


Sergio Plaza 101

y para el error relativo ER (xA ) , tenemos

xT − xA 
ER (xA ) =  I − BA .
xT 

Caso 2: Si perturbamos b para obtener un nuevo vector bA . Si xT satisface Ax = b y xA


satisface Ax = bA . Una pregunta natural es determinar cotas para E(xA ) = xT − xA  y
ER (xA ) = xx
T −xA 
T
. Tenemos que

3 3 3 3 3 3
xT − xA  = 3A−1 b − A−1 bA 3 = 3A−1 (b − bA )3  3A−1 3 b − bA  ,

por lo tanto

E (xA )  A−1  b − bA  = A−1  E (bA ) ,

esto es,

3 3
E (xA )  b − bA  = 3A−1 3 E (bA ) , (3.3)

y por otro lado se tiene

3 3 3 3 b − bA  3 3 b − bA 
xT − xA   3A−1 3 b − bA  = 3A−1 3 AxT   3A−1 3 A xT 
b b

luego

xT − xA  3 3 b − bA  3 3
ER (xT ) =  3A−1 3 A = 3A−1 3 A ER (bA ) .
xT  b
esto es,
ER (xA )  ||A−1 || ||A||ER (bA . (3.4)

Definición 3.4 Sea A ∈ M (n × n, R) una matriz invertible, el número condición de A es


dado por
3 3
κ (A) = A 3A−1 3 . (3.5)

Observación. Note que κ (A)  1 , pues es evidente que κ(I) = 1 y que

1 = ||I||  ||A|| ||A−1 || = κ(A).

Ejemplo 49 Considere

 
1 1+ε
A= ,
1−ε 1

con ε > 0, suficientemente pequeño. Tenemos que det(A) = ε2 ≈ 0 es muy pequeño, lo cual
significa que A es “casi singular”. Como
Sergio Plaza 102

 
−1 −2 1 −1 − ε
A =ε ,
−1 + ε 1
3 3
obtenemos que A∞ = 2 + ε, 3A−1 3∞ = ε−2 (2 + ε) , por lo tanto

(2 + ε)2 4
κ (A) =  .
ε2 ε
Observe que si ε < 0.0001 , entonces k (A)  40.000 .

Ejemplo 50 Consideremos la matriz


 
1 1
A=
1 1.00000001

Tenemos

 
1.0 × 108 −1.0 × 108
A−1 =
−1.0 × 108 1.0 × 108

Luego, ||A||1 = ||A||2 ≈ ||A||∞ = 2 , ||A−1 ||1 = ||A−1 ||∞ ≈ ||A−1 ||2 ≈ 2 × 108 , luego
κ1 (A) = κ∞ (A) ≈ 4 × 108 .

Observación. Si κ (A) es demasiado grande diremos que A está mal condicionada.

Ejemplo 51 Consideremos la matriz


⎛ ⎞
1 −1 −1 · · · −1
⎜ 1 −1 · · · −1 ⎟
⎜ 0 ⎟
⎜ ⎟
A=⎜

..
.
..
.
..
.
..
.
..
.
⎟.

⎜ ⎟
⎝ 0 0 0 ··· −1 ⎠
0 0 0 ··· 1

La matriz A tiene sólo unos en su diagonal, y sobre ella tiene sólo menos unos. Tenemos que
det(A) = 1 , pero κ∞ (A) = n2n−1 , esta matriz está mal condicionada.

Si resolvemos Ax = b numéricamente no obtenemos una solución exacta, xT , si no una


solución aproximada xA . Una pregunta natural al resolver numéricamente el sistema es ¿qué
tan cerca esta AxA de b ?
Para responder dicha interrogante definamos r = b − AxA como el vector residual y e =
xT − xA como el vector de error.

Observación. Tenemos que

1. Ae = r.

2. xA es solución exacta de AxA = bA = b − r .


Sergio Plaza 103

 xT −xA   b−bA   r
¿Qué relación existe entre  xT  y  b =  b ?

Teorema 3.8 Para toda matriz invertible A ∈ M (n × n, R) , se tiene que

1  b − bA   xT − xA   b − bA 
  κ (A) , (3.6)
κ (A)  b  xT   b

es decir,
1 r e r
  κ (A) . (3.7)
κ (A)  b   xT   b

Observación. Si tenemos una matriz B escrita en la forma

B = A(I + E)

donde I denota la matriz identidad y E es una matriz de error, entonces se tienen las siguientes
cotas para el error relativo

||xT − xA || κ(A) ||AE||


 (3.8)
||xT || 1 − κ(A) ||A ||A||
||AE||

si ||AE|| < 1 y
||xT − xA || ||E||
 (3.9)
||xT || 1 − ||E||
si ||E|| < 1 .
Observación. Sea A ∈ M (n × n, R) . Denotemos por λmax y λmin *
, respectivamente, el
λmax
máximo y el mı́nimo de los valores propios de AAT . Entonces κ2 (A) = λmin .

Ejemplo 52 Determine ||A||2 , ||A−1 ||2 y κ2 (A) , donde


⎛ ⎞
3 1
√ −√
⎜ 3 3 ⎟
⎜ ⎟
A=⎜ ⎜ ⎟
√ ⎟
⎝ 8 ⎠
0 √
3

Tenemos que ⎛ ⎞
3
√ 0
⎜ 3 ⎟
⎜ ⎟
A =⎜
T
⎜ √ ⎟

⎝ 1 8 ⎠
−√ √
3 3
Luego

⎛ √ ⎞
10 8
⎜ 3 −λ −
3 ⎟
⎜ ⎟
AAT − λI = ⎜ √ ⎟.
⎝ ⎠
8 8
− −λ
3 3
Sergio Plaza 104

Por lo tanto, det(AAT − λI) = λ2 − 6λ + 8 , de donde los valores propios de AAT son λ = 2
y λ = 4 , es decir, λmin = 2 y λmax = 4 . Luego

 1 1
||A||2 = λmax = 2 y ||A−1 ||2 = √ = √ ,
λmin 2

y se tiene que κ2 (A) = √2 = 2.
2

3.3 Solución de sistemas de ecuaciones lineales: métodos


directos
En esta parte estudiaremos métodos directos, es decir, algebraicos, para resolver sistemas de
ecuaciones lineales. Herramienta fundamental aquı́ es el Álgebra Lineal.

3.3.1 Conceptos básicos


La idea es reducir un sistema de ecuaciones lineales a otro que sea más sencillo de resolver.

Definición 3.5 Sean A, B ∈ M (n × n, R) . Decimos que dos sistemas de ecuaciones lineales


Ax = b y Bx = d son equivalentes si poseen exactamente las mismas soluciones.

Por lo tanto si podemos reducir un sistema de ecuaciones lineales Ax = b a un sistema


equivalente y más simple Bx = d , podemos resolver este último, y obtenemos de ese modo las
soluciones del sistema original.

Definición 3.6 Sea A ∈ M (n × n, R) . Llamaremos operaciones elementales por filas sobre A


a cada una de las siguientes operaciones

1. Intercambio de la fila i con la fila j , denotamos esta operación por Fi ↔ Fj .

2. Reemplazar la fila i, Fi , por un múltiplo no nulo λFi de la fila i , denotamos esta


operación por Fi → λFi

3. Reemplazar la fila i , Fi , por la suma de la fila i más un múltiplo no nulo λFj de la fila
j , i = j , denotamos esta operación por Fi → Fi + λFj

Definición 3.7 Decimos que una matriz A es una matriz elemental si ella se obtiene a partir
de la matriz identidad a través de una única operación elemental. Una matriz elemental será
denotada por E .
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
Ejemplo 53 1. ⎝ 0 1 0 ⎠ F3 ↔ F2 ⎝ 0 0 1 ⎠.
0 0 1 0 1 0
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
2. ⎝ 0 1 0 ⎠ F2 → rF2 ⎝ 0 r 0 ⎠
0 0 1 0 0 1
Sergio Plaza 105

⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
3. ⎝ 0 1 0 ⎠ F3 → F3 + rF2 ⎝ 0 1 0 ⎠
0 0 1 0 r 1

Observación. Si a una matriz A se le aplican una serie de operaciones elementales


E1 , E2 , . . . , Ek denotaremos el resultado por Ek Ek−1 · · · E2 E1 A .
Además, si Ek Ek−1 · · · E2 E1 A = I , se tiene que A posee inversa y Ek Ek−1 · · · E2 E1 = A−1 .
El teorema siguiente resume las condiciones para que una matriz tenga inversa.

Teorema 3.9 Sea A ∈ M (n × n, R) entonces son equivalentes

1. A tiene inversa.

2. det (A) = 0.

3. Las filas de A forman una base de Rn .

4. Las columnas de A forman una base de Rn .

5. La transformación lineal T : Rn −→ Rn dada por T (x) = Ax , asociada a la matriz A ,


es inyectiva,

6. La transformación T : Rn −→ Rn dada por T (x) = Ax , asociada a la matriz A , es


sobreyectiva

7. El sistema Ax = 0 , donde x ∈ Rn posee solución única x = 0 .

8. Para cada b ∈ Rn existe un único vector x ∈ Rn tal que Ax = b .

9. A es producto de matrices elementales.

10. Todos los valores propios de A son distinto de cero.

3.4 Factorización de matrices


En esta sección estudiaremos las condiciones necesarias para que una matriz A ∈ M (n × n, R)
tenga una factorización de la forma LU donde L, U ∈ M (n×n, R) , con L una matriz triangular
inferior y U una matriz triangular superior.
Observe que si A ∈ M (n×n, R) tiene una factorización de la forma LU como arriba, entonces
el sistema de ecuaciones lineales Ax = b , con x, b ∈ Rn , puede resolverse de una manera más
sencilla, para ello consideramos el cambio de variable U x = z , y resolvemos primero el sistema
Lz = b primero y enseguida resolvemos el sistema U x = z , obteniendo ası́ la solución del
sistema original, es decir,

Lz = b
Ax = b ⇐⇒ L 
U x = b ⇐⇒
Ux = z .
z

Supongamos que A ∈ M (n × n, R) tiene una descomposición de la forma LU como arriba,


con
Sergio Plaza 106

⎛ ⎞ ⎛ ⎞
l11 0 0 ··· 0 u11 u12 ··· u1n−1 u1n
⎜ l21 l22 0 ··· 0 ⎟ ⎜ 0 u22 ··· u2n−1 u2n ⎟
⎜ ⎟ ⎜ ⎟
L=⎜ .. .. .. .. .. ⎟ y U =⎜ .. .. .. .. .. ⎟ (3.10)
⎝ . . . . . ⎠ ⎝ . . . . . ⎠
ln1 ln2 ··· lnn−1 lnn 0 0 0 ··· unn

De esta descomposición tenemos


$ %$ %
4
n 4
n
det(A) = det(L) det(U ) = lii uii (3.11)
i=1 i=1

ası́, det(A) = 0 si y sólo si lii = 0 y uii = 0 para todo i = 1, . . . , n .


Para simplificar la notación, escribamos

T
L = (F1 F2 . . . Fn ) y U = (C1 C2 · · · Cn ) ,

donde Fi = (li1 li2 · · · lii 0 · · · 0) y Ci = (u1i u2i · · · uii 0 · · · 0)T , son las filas de L y
las columnas de U , respectivamente.
Ahora, al desarrollar la multiplicación A = LU ,

⎛ ⎞ ⎛ ⎞ ⎛ ⎞
a11 a21 ··· a1n F1 F1 C1 F1 C2 ··· F1 Cn
⎜ a21 a22 ··· a2n ⎟ ⎜ F2 ⎟ ⎜ F2 C1 F2 C2 ··· F2 Cn ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟=⎜ .. ⎟ (C1 C2 · · · Cn ) = ⎜ .. .. .. .. ⎟
⎝ . . . . ⎠ ⎝ . ⎠ ⎝ . . . . ⎠
an1 an2 ··· ann Fn Fn C1 Fn C2 ··· Fn Cn

donde Fi Cj es considerado como el producto de las matrices Fi = (li1 li2 · · · lii 0 · · · 0) y


T
Ci = (u1i u2i · · · uii 0 · · · 0) . Tenemos entonces




a11 = F1 C1 = l11 u11

⎨ a12 = F1 C2 = l11 u12
.. .. .. (3.12)

⎪ . . .


a1n = F1 Cn = l11 u1n

de aquı́, vemos que si fijamos l11 = 0 , podemos resolver las ecuaciones anteriores para u1i ,
i = 1, . . . , n . Enseguida, para la segunda fila de A tenemos




a21 = F2 C1 = l21 u11

⎨ a22 = F2 C2 = l21 u12 + l22 u22
.. .. .. (3.13)

⎪ . . .


a2n = F2 Cn = l21 u1n + l22 u2n

como u11 ya lo conocemos desde las ecuaciones (3.12), podemos encontrar el valor l21 , conocido
este valor, fijando un valor no cero para l22 , y dado que conocemos los valores u1i para
i = 2, . . . , n , podemos encontrar los valores de u2i para i = 2, . . . , n . Siguiendo este método
vemos que es posible obtener la descomposición de A en la forma LU . Note que también
Sergio Plaza 107

podemos comparar las columnas de A con aquellas obtenidas desde el producto LU y proceder
a resolver las ecuaciones resultantes. El problema es ahora saber bajo que condiciones dada
una matriz A ella puede descomponerse en la forma LU , es decir, siempre y cuando podamos
hacer las elecciones anteriores.
⎛ ⎞
10 −3 6
Ejemplo 54 Sea A = ⎝ 1 8 −2 ⎠ . Encontremos una descomposición LU para A .
−2 4 −9
Escribamos ⎛ ⎞ ⎛ ⎞⎛ ⎞
10 −3 6 l11 0 0 u11 u12 u13
⎝ 1 8 −2 ⎠ = ⎝ l21 l22 0 ⎠ ⎝ 0 u22 u23 ⎠
−2 4 −9 l31 l32 l33 0 0 u33

desarrollando, obtenemos que


⎨ l11 u11 = 10
l u = −3
⎩ 11 12
l11 u13 = 6

de aquı́ fijando un valor no cero para l11 , digamos l11 = 2 , obtenemos que u11 = 5 , u12 = − 32 ,
y u13 = 3 . Enseguida tenemos las ecuaciones


⎨ l21 u11 = 1
l u + l22 u22 = 8
⎩ 21 12
l21 u13 + l22 u23 = −2

como u11 = 5 se tiene que l21 = 15 . Ahora fijamos el valor de l22 = 1 y obtenemos los valores
u22 = 83 13
10 , y u23 = − 5 . Finalmente, para la última fila de A , nos queda


⎨ l31 u11 = −2
l31 u12 + l32 u22 = 4

l31 u13 + l32 u23 + l33 u33 = −2

como u11 = 5 de la primera ecuación l31 = − 25 , reemplazando los valores de l31 = − 25 ,


u12 = − 32 y u22 = 83 34
10 en la segunda ecuación encontramos que l32 = 83 . Ahora, reemplazando
los valores ya obtenidos en la tercera ecuación obtenemos que l33 u33 = − 1694
415 , para encontrar el
1
valor de u33 podemos fijar el valor de l33 , digamos l33 = − 415 , y obtenemos que u33 = 1604 .
Tenenmos ası́ una descomposición LU para la matriz A , es decir,
⎛ ⎞⎛ ⎞
2 0 0 3
5 − 3
⎛ ⎞ ⎜ ⎜
⎟⎜
⎟⎜ 2 ⎟

10 −3 6 ⎜ 1 ⎟⎜ ⎟
⎝ 1 ⎜ ⎟⎜ 13 ⎟
8 −2 ⎠ = ⎜ 1 0 ⎟⎜ 0 83
− ⎟.
⎜ 5 ⎟⎜ 5 ⎟
−2 4 −9 ⎜ ⎟⎜ 10 ⎟
⎝ 3 34 1 ⎠⎝ ⎠
− − 0 0 1604
5 83 415

No siempre es posible encontrar una descomposición de la forma LU para una matriz A


dada, esto se muestra en el siguiente ejemplo.
Sergio Plaza 108

 
0 1
Ejemplo 55 La matriz A = no tiene descomposición de la forma LU . Notemos
1 1
que det(A) = 0 .
Para verlo supongamos que podemos escribir A = LU , donde

   
l11 0 u11 u12
L= y U= .
l21 l22 0 u22

Tenemos entonces que

    
0 1 l11 0 u11 u12
=
1 1 l21 l22 0 u22

de donde l11 u11 = 0 , por lo tanto

l11 = 0 (∗) o u11 = 0 (∗∗).

Como l11 u12 = 1 , no es posible que (*) sea verdadero, es decir, debemos tener que l11 = 0 ,
en consecuencia se debe tener que u11 = 0 , pero además se tiene que u12 = 0 . Ahoram, como
l21 u11 = 1 , llegamos a una contradicción. Luego tal descomposición para A no puede existir.

En el algoritmo que vimos para buscar la descomposición de una matriz A en la forma LU ,


en los sucesivos paso fue necesario fijar valores no cero para los coeficientes lii de L , de modo a
poder resolver las ecuaciones resultantes. También, si procedemos con el algoritmo a comparar
las columnas de la matriz producto LU con las columnas de A , vemos que será necesario fijar
en paso sucesivos valores no cero para los coeficientes uii de U , de modo a poder resolver las
ecuaciones resultantes. Como es evidente existe una manera simple de hacer esto, por ejemplo
si en el primer algoritmo fijamos los valores lii = 1 para i = 1, . . . , n , decimos que tenemos una
descomposición LU de Doolitle para A , y si en el segundo algoritmo fijamos los valores uii = 1
para i = 1, . . . , n , decimos que tenemos una descomposición LU de Crout para A , finalmente
si fijamos U = LT (transpuesta de L) se tiene que lii = uii , y decimos que tenemos una
descomposición LU de Cholesky para A . Note que para la existencia de descomposición de
Cholesky es necesario que A sea simétrica, pues si A = LLT entonces AT = A , esto significa
que es una condición necesario, pero una no es una condición suficiente.
Sobre la existencia de descomposición LU para una matriz A veremos a continuación algunos
teoremas. Primero recordemos que si
⎛ ⎞
a11 a21 ··· a1n
⎜ a21 a22 ··· a2n ⎟
⎜ ⎟
A=⎜ .. .. .. .. ⎟
⎝ . . . . ⎠
an1 an2 ··· ann n×n

entonces los menores principales de A son las submatrices Ak , k = 1, . . . , n , definidas por


Sergio Plaza 109

⎛ ⎞
a11 a21 ··· a1k
  ⎜ a21 a22 ··· a2k ⎟
a11 a21 ⎜ ⎟
A1 = (a11 )1×1 , A2 = , . . . , Ak = ⎜ .. .. .. .. ⎟ ,
a21 a22 2×2
⎝ . . . . ⎠
ak1 ak2 ··· akk k×k
. . . , An = A .

Teorema 3.10 Si los n menores principales de una matriz A tienen determinante distinto
de cero, entonces A tiene una descomposición LU .

Para tener descomposición de Cholesky, recordemos algunos conceptos y resultados.

Definición 3.8 Sea A ∈ M (n × n, R) . Decimos que A es definida positiva si Ax, x > 0


para todo x ∈ Rn , con x = 0 .

Ejemplo 56 La matriz

⎛ ⎞
2 −1 0
A = ⎝ −1 2 −1 ⎠
0 −1 2

T
es definida positiva. En efecto considere x = (x y z) , tenemos
⎛ ⎞⎛ ⎞
2 −1 0 x
x, Ax = (x, y, z) ⎝ −1 2 −1 ⎠ ⎝ y ⎠ = 2x2 − 2xy + 2y 2 − 2yz + 2z 2 .
0 −1 2 z

Luego,
x, Ax = 2x2 − 2xy + 2y 2 − 2yz + 2z 2
2 2
= x2 + (x − y) + (y − z) + z 2 > 0,
para todo (x, y, z) = (0, 0, 0) .

Teorema 3.11 Si A ∈ M (n × n, R) es definida positiva entonces todos sus valores propios


son reales y positivos.

Observación. Si A ∈ M (n × n, R) entonces podemos descomponer A de manera única



como la suma de una matriz simétrica, A0 = 12 A + AT , y una matriz antisimétrica, A1 =
1

2 A−A . Desde la definición de matriz positiva definida se tiene que Ax, x = A0 x, x ,
T

por lo cual sólo necesitamos considerar matrices simétricas.

Teorema 3.12 Sea A ∈ M (n × n, R) , entonces A es positiva definida si y sólo si todos los


menores principales de A tiene determinante positivo.

Teorema 3.13 Sea A ∈ M (n × n, R) , entonces A simétrica y positiva definida si y sólo si


A tiene una descomposición de Cholesky.
Sergio Plaza 110

Ejemplo 57 La matriz

⎛ ⎞
2 −1 0
A = ⎝ −1 2 −1 ⎠
0 −1 2
 
2 −1
es definida positiva, pues se tiene que det (A1 ) = 2 > 0 , det (A2 ) = det =3>0
−1 2
y det (A3 ) = det (A) = 4 > 0 . Luego tiene descomposición de Cholesky.
Ahora, para encontrar la descomposición de Cholesky para esta matriz procedemos como
sigue.

⎛ ⎞ ⎛ ⎞⎛ ⎞
2 −1 0 l11 0 0 l11 l21 l31
⎝ −1 2 −1 ⎠ = ⎝ l21 l22 0 ⎠⎝ 0 l22 l32 ⎠
0 −1 2 l31 l32 l33 0 0 l33
√ √
2
Luego, l11 = 2 , es decir, l11 = 2 ; −1 = l11 l21 , de donde l21 = − 22 ; 0 = l11 l31 , de
√ √
2
donde l31 = 0 ; l21 2
+ l22 = 2 , de donde l22 = √52 ; l21 l31 + l22 l32 = −1 , de donde l32 = − √25 ;

2 2 2 2√ 2
l31 + l32 + l33 = 2 , de donde l33 = 5
.
Por lo tanto

⎛ ⎞ ⎛ √2 0 0
⎞⎛ √ √
2 −√ 22

2 −1 0 √ √
0√
⎝ −1 2 −1 ⎠ = ⎜
⎝ − 2
2 √5 0 ⎟⎜ 0
⎠⎝ √5 − √25 ⎟
⎠.
√2 √ 2 √
0 −1 2 0 − √25 2√ 2
0 0 2√ 2
5 5

3.5 Método de eliminación gaussiana


En esta sección estudiaremos el método de eliminación gaussiana para resolver sistemas de
ecuaciones lineales

⎛ ⎞⎛ ⎞ ⎛ ⎞
a11 a21 ··· a1n x1 b1
⎜ a21 a22 ··· a2n ⎟⎜ x2 ⎟ ⎜ b2 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟⎜ .. ⎟=⎜ .. ⎟.
⎝ . . . . ⎠⎝ . ⎠ ⎝ . ⎠
an1 an2 ··· ann xn bn

Colocamos primero esta información en la forma


⎛ ⎞
a11 a12 ··· a1n b1 F1
⎜ a21 a22 ··· a2n b2 ⎟ F2
⎜ ⎟
A b =⎜ .. .. .. .. .. ⎟ .
⎝ . . . . . ⎠ ..
an1 an2 ··· ann bn Fn

esto es, consideramos la matriz aumentada del sistema. En la notación anterior, los sı́mbolos
Fi denotan las filas de la nueva matriz.
Sergio Plaza 111

Si a11 = 0 , el primer paso de la eliminación gaussiana consiste en realizar las operaciones


elementales

aj1
(Fj − mj1 F1 ) → Fj , donde mj1 = , j = 2, 3, ..., n . (3.14)
a11

Estas operaciones transforman el sistema en otro en el cual todos los componentes de la


primera columna situada bajo la diagonal son cero.
Podemos ver desde otro punto de vista el sistema de operaciones. Esto lo logramos si-
multáneamente al multiplicar por la izquierda la matriz original A por la matriz

⎛ ⎞
1 0 ··· 0
⎜ −m21 1 ··· 0 ⎟
⎜ ⎟
M (1) = ⎜ .. .. . . .. ⎟ (3.15)
⎝ . . . . ⎠
−mn1 0 ··· 1

Esta matriz recibe el nombre de primera matriz gaussiana de transformación. El producto


de M (1) con la matriz A(1) = A lo denotamos por A(2) y el producto de M (1) con la matriz
b(1) = b lo denotamos por b(2) , con lo cual obtenemos

A(2) x = M (1) Ax = M (1) b = b(2) (3.16)


(2)
De manera análoga podemos construir la matriz M (2) , en la cual si a22 = 0 los elemen-
tos situados bajo de la diagonal en la segunda columna con los elementos negativos de los
multiplicadores

(2)
aj2
mj2 = (2)
, j = 3, 4, . . . , n (3.17)
a22

Ası́ obtenemos

A(3) x = M (2) A(2) x = M (2) M (1) Ax = M (2) M (1) b = b(3) (3.18)

En general, con A(k) x = b(k) ya formada, multiplicamos por la k–ésima matriz de transfor-
mación gaussiana

⎛ ⎞
1 0 ··· ··· 0
⎜ 0 1 ⎟
⎜ ⎟
⎜ .. .. .. ⎟
⎜ . ⎟
⎜ . 1 . ⎟
⎜ ⎟
M (k)
=⎜
⎜ .
0 ⎟
⎜ . .. .. ⎟

⎜ . −mk+1 k . . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝ . . 0 0 ⎠
0 · · · 0 −mn k 0 0 1

para obtener
Sergio Plaza 112

A(k+1) x = M (k) A(k) x = M (k) · · · M (1) Ax = M (k) b(k) = b(k+1) = M (k) · · · M (1) b (3.19)

Este proceso termina con la formación de un sistema A(n) x = b(n) , donde A(n) es una matriz
triangular superior
⎛ (1) (1) (1) ⎞
a11 a12 · · · a1n
⎜ (2) (2) ⎟
⎜ 0 a22 . . . a2n ⎟
⎜ ⎟
(n) ⎜ .. . ⎟
A =⎜ . .. ⎟
⎜ . .. ⎟
⎜ .. . . an−1 n ⎟
(n−1)
⎝ . . ⎠
(n)
0 ··· 0 ann

dada por

A(n) = M (n−1) M (n−2) M (n−3) · · · M (1) A. (3.20)

El proceso que hemos realizado sólo forma la mitad de la factorización matricial A = LU ,


donde con U denotamos la matriz triangular superior A(n) . Si queremos determinar la matriz
triangular inferior L , primero debemos recordar la multiplicación de A(k) x = b(k) mediante la
transformación gaussiana M (k) con que obtuvimos

A(k+1) x = M (k) A(k) x = M (k) b(k) = b(k+1)

para poder revertir los efectos de esta transformación debemos considerar primero la matriz
−1
L(k) = M (k) , la cual esta dada por

⎛ ⎞
1 0 ··· ··· ··· 0
⎜ .. ⎟
⎜ 0 1 . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ ⎟
 −1 ⎜ . 1 . ⎟
⎜ .. ⎟
L(k) = M (k) =⎜

..
. 0
..
. ⎟
. ⎟.
⎜ ⎟
⎜ .. .. ⎟
⎜ . mk+1 k . ⎟
⎜ ⎟
⎜ .. .. .. .. ⎟
⎝ . . . 0 . 0 ⎠
0 ··· 0 mn k 0 0 1

Por lo tanto si denotamos

L = L(1) L(2) · · · L(n−1)

obtenemos

LU = L(1) L(2) · · · L(n−1) M (n−1) M (n−2) M (n−3) · · · M (1) = A.

Con lo cual obtenemos el siguiente resultado.


Sergio Plaza 113

Teorema 3.14 Si podemos efectuar la eliminación gaussiana en el sistema lineal Ax = b sin


intercambio de filas, entonces podemos factorizar la matriz A como el producto de una matriz
triangular inferior L y una matriz triangular superior U , donde
⎛ (1) (1) (1)
⎞ ⎛ ⎞
a11 a12 ··· a1n 1 0 ··· 0
⎜ .. ⎟ ⎜ .. .. ⎟
⎜ (2) .. ⎟ ⎜ . ⎟
⎜ 0 a22 . . ⎟ m21 1 .
U =⎜ ⎟ y L=⎜

⎟.

⎜ .. .. .. ⎟ ⎝
.. .. ..
0 ⎠
(n−1)
⎝ . . . an−1 n ⎠ . . .
(n)
0 ··· 0 ann mn1 ··· mn n−1 1

Ejemplo 58 Consideremos el siguiente sistema lineal

x + y + 3w = 4
2x + y − z + w = 1
3x − y − z + w = −3
−x + 2y + 3z − w = 4

Si realizamos las siguientes operaciones elementales F2 → (F E2 − 2F1 ) , F3 → (F3 − 3F1 ) ,


F4 → (F4 − (−1) F1 ) , F3 → (F3 − 4F2 ) , F4 → (F4 − (−3) F2 ) con lo que obtenemos el sis-
tema triangular

x + y + 3w = 4
−y − z − 5w = −7
3z + 13w = 13
−13w = −13
Por lo tanto la factorización LU está dada por

⎛ ⎞ ⎛ ⎞⎛ ⎞
1 1 0 3 1 0 0 0 1 1 0 3
⎜ 2 −1 ⎟ ⎜ 2 0 ⎟ ⎜ ⎟
A=⎜
1 1 ⎟ ⎜ 1 0 ⎟ ⎜ 0 −1 −1 −5 ⎟ = LU.
⎝ 3 −1 −1 2 ⎠ = ⎝ 3 4 1 0 ⎠ ⎝ 0 0 3 13 ⎠
−1 2 3 −1 −1 −3 0 1 0 0 0 −13
    
L U

Esta factorización nos permite resolver fácilmente todo sistema que posee como matriz aso-
ciada la matriz A . Ası́, por ejemplo, para resolver el sistema

⎛ ⎞⎛ ⎞⎛ ⎞ ⎛ ⎞
1 0 0 0 1 1 0 3 x 8
⎜ 2 1 0 ⎟ ⎜
0 ⎟⎜ 0 ⎟ ⎜
−1 −1 −5 ⎟ ⎜ y ⎟ ⎜ 7 ⎟
Ax = LU x = ⎜
⎝ 3
⎟=⎜ ⎟
4 1 0 ⎠⎝ 0 0 3 13 ⎠ ⎝ z ⎠ ⎝ 14 ⎠
−1 −3 0 1 0 0 0 −13 w −7

primero realizaremos la sustitución y = U x . Luego resolvemos Ly = b , es decir,

⎛ ⎞⎛ ⎞ ⎛ ⎞
1 0 0 0 y1 8
⎜ 2 1 0 0 ⎟ ⎜ y2 ⎟ ⎜ 7 ⎟
LU x = Ly = ⎜
⎝ 3
⎟⎜ ⎟=⎜ ⎟
⎠ ⎝ 14 ⎠ .
4 1 0 ⎠ ⎝ y3
−1 −3 0 1 y4 −7
Sergio Plaza 114

Este sistema se resuelve para y mediante un simple proceso de susbtitución hacia adelante,
con lo cual obtenemos

⎛ ⎞ ⎛ ⎞
y1 8
⎜ y2 ⎟ ⎜ −9 ⎟
y=⎜ ⎟ ⎜
⎝ y3 ⎠ = ⎝ 26
⎟.

y4 −26

Por ultimo resolvemos U x = y , es decir, resolvemos el sistema por un proceso de susbtitución


hacia atrás

⎛ ⎞⎛ ⎞ ⎛ ⎞
1 1 0 3 x 8
⎜ 0 ⎟ ⎜
−1 −1 −5 ⎟ ⎜ y ⎟ ⎜ −9 ⎟
Ux = ⎜
⎝ 0
⎟=⎜ ⎟
0 3 13 ⎠ ⎝ z ⎠ ⎝ 26 ⎠
0 0 0 −13 w −26

el cual tiene por solución


⎞ ⎛ ⎞
x 3
⎜ y ⎟ ⎜ −1 ⎟
x=⎜ ⎟ ⎜
⎝ z ⎠=⎝ 0
⎟.

w 2
que es la solución buscada.

3.6 Eliminación gaussiana con pivoteo


Al resolver un sistema lineal Ax = b , a veces es necesario intercambiar las ecuaciones, ya sea
porque la elimninación gaussiana no puede efectuarse o porque las soluciones que se obtienen
no corresponden a as soluciones exactas del sistema. Este proceso es llamado pivoteo y nos
lleva a la descomposición P A = LU del sistema. Ası́ el sistema se transforma en LU x = P b
y resolvemos entonces los sistemas


Ux = z
Lz = Pb

donde P es una matriz de permutación, es decir, es una matriz obtenida a partir de la matriz
identidad intercambiando algunas de sus filas. Más precisamente.

Definición 3.9 Una matriz de permutación P ∈ M (n × n, R) es una matriz obtenida desde


la matriz identidad por permutación de sus filas.

Observación. Las matrices de permutación poseen dos propiedades de gran utilidad que se
relacionan con la eliminación gaussiana. La primera de ellas es que al multiplicar por la izquierda
una A por una matriz de permutación P , es decir, al realizar el producto P A se permutan las
filas de A . La segunda propiedad establece que si P es una matriz de permutación, entonces
P −1 = P T .
Sergio Plaza 115

Si A ∈ M (n × n, R) es una matriz invertible entonces podemos resolver el sistema lineal


Ax = b vı́a eliminación gaussiana, sin excluir el intercambio de filas. Si conociéramos los inter-
cambios que se requieren para resolver el sistema mediante eliminación gaussiana, podrı́amos
arreglar las ecuaciones originales de manera que nos garantice que no se requieren intercambios
de filas. Por lo tanto, existe un arreglo de ecuaciones en el sistema que nos permite resolver el
sistema con eliminación gaussiana sin intercambio de filas. Con lo que podemos concluir que
si A ∈ M (n × n, R) es una matriz invertible entonces existe una matriz de permutación P
para la cual podemos resolver el sistema P Ax = P b , sin hacer intercambios de filas. Pero
podemos factorizar la matriz P A en P A = LU , donde L es una triangular inferior y U
triangular superior, y P es una matriz de permutación. Dado que P −1 = P T obtenemos que

A = P T L U . Sin embargo, la matriz P T L no es triangular inferior, salvo que P = I .
Supongamos que tenemos el sistema

⎛ ⎞⎛ ⎞ ⎛ ⎞
a11 a12 ··· a1n x1 b1
⎜ a21 a22 ··· a2n ⎟⎜ x2 ⎟ ⎜ b2 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟⎜ .. ⎟=⎜ .. ⎟ (3.21)
⎝ . . . . ⎠⎝ . ⎠ ⎝ . ⎠
an1 an2 ··· ann xn bn

Se define la escala de cada fila como

si = max{|ai1 |, |ai2 |, . . . , |ain |} , 1  i  n. (3.22)

Elección de la fila pivote. Elegimos como fila povote la fila para la cual se tiene que

|ai0 1 |
(3.23)
si0

es el mayor.
Intercambiamos en A la fila 1 con la fila i0 , esto es, realizamos la operación elemental
F1 ↔ Fi0 . Esto nos produce la primera permutación. Procedemos ahora a producir ceros
bajo la primera columna de la matriz permutada, tal como se hizo en la eliminación gaussiana.
Denotamos el ı́ndice que hemos elegido por p1 , este se convierte en la primera componente de
la permutación.
Más especificamente, comenzamos por fijar

p = (p1 p2 . . . pn ) = (1 2 . . . n) (3.24)

como la permutación antes de comenzar el pivoteo. Ası́ la primera permutación que hemos
hecho es

 
1 2 . . . i0 ... n
.
i0 2 ... 1 ... n

Para fijar las ideas, comenzamos con la permutación (p1 p2 . . . pn ) = (1 2 . . . n) . Primero


seleccionamos un ı́ndice j para el cual se tiene
Sergio Plaza 116

|apj j |
, 2jn (3.25)
spj

es el mayor, y se intercambia p1 con pj en la permutación p . Procedemos a la elmincación


gaussiana, restando

api 1
× Fp1
ap1 1

a las filas pi , 2  i  n .
En general, supongamos que tenemos que producir ceros en la columna k . Impeccionamos
los números

|api k |
, kin (3.26)
spi

y buscamos el mayor de ellos. Si j es el ı́ndice del primer cuociente más grande, intercambiamos
pk con pj en la permutación p y las filas Fpk con la fila Fpj en la matriz que tenemos en
esta etapa de la eliminación gaussiana–pivoteo. Enseguida producimos ceros en la columna pk
bajo el elemento apk k , para ellos restamos

api k
× Fpk
apk k

de la fila Fpi , k + 1  i  n , y continuamos el proceso hasta obtener una matriz triangular


superior.
Veamos con un ejemplo especı́fico como podemos ir guardando toda la información del proceso
que vamos realizando en cada etapa del proceso de eliminación gaussiana–pivoteo

Ejemplo 59 Resolver el sistema de ecuaciones lineales


⎛ ⎞⎛ ⎞ ⎛ ⎞
2 3 −6 x 1
⎝ 1 −6 8 ⎠ ⎝ y ⎠ = ⎝ 1 ⎠
3 −2 1 z 1

Solución. Primero calculemos la escala de las filas. Tenemos

s1 = max{|2|, |3|, | − 6|} = 6


s2 = max{|1|, | − 6|, |8|} = 8
s3 = max{|3|, | − 2|, |1|} = 3

permutación inicial p = (1 2 3) . Denotemos por s el vector de la escala de las filas, es decir,


s = (6 8 3) .
Elección de la primera fila pivote:
Sergio Plaza 117

|a11 | 2 1
= =
s1 6 3
|a21 | 1
=
s2 8
|a31 |
= 1,
s3

luego j = 3 . Antes de proceder a intercambiar la fila F1 con la fila F3 guardamos la infor-


mación en la forma siguiente

⎛ ⎞
2 3 −6 1 6 1
⎝ 1 −6 8 1 8 2 ⎠
3 −2 1 1 3 3

donde la primera parte de esta matriz representa a la matriz A , la segunda al vector b , la


tercera al vector s y la última a la permutación inicial p = (1 2 3) . Como j = 3 intercambianos
las filas F1 ↔ F3 y obtenemos

⎛ ⎞
3 −2 1 1 3 3
⎝ 1 −6 8 1 8 2 ⎠
2 3 −6 1 6 1

en la parte (A|b) de la matriz arriba procedemos a hacer eliminación gaussiana. Los multipli-
cadores son m21 = 13 y m31 = 23 , obtenemos ası́

⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ 0 − 16
3
23
3
2
3 8 2 ⎟
⎜ ⎟
⎝ ⎠
13
0 3 − 20
3
1
3 6 1

Agregamos la información de los multiplicadores a esta estructura como sigue

⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ 0 − 16
3
23
3
2
3 8 2 1
3 ⎟
⎜ ⎟
⎝ ⎠
13
0 3 − 20
3
1
3 6 1 2
3

Ahora determinamos la nueva fila pivote. Recuerde que la primera fila de esta nueva matriz
permanece inalterada, y sólo debemos trabajar con las filas restantes. Para determinar la nueva
fila pivote, calculamos
Sergio Plaza 118

16
|ap2 2 | 3 16 2
= = =
sp2 8 24 3
13
|ap3 2 | 3 13
= =
sp3 6 18
13 2
como 18 > 3 la nueva fila pivote es la fila 3. Intercambiando F2 ↔ F3 nos queda

⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ 13 ⎟
⎜ 0 3 − 20
3
1
3 6 1 2
3 ⎟
⎜ ⎟
⎝ ⎠
0 − 16
3
23
3
2
3 8 2 1
3

− 16
16
El multiplicador es m32 = 133 = − 13 . Agregando la información del nuevo multiplicador y
3
aplicando eliminación gaussiana, nos queda

⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ 13 ⎟
⎜ 0 3 − 20
3
1
3 6 1 2
3 ⎟
⎜ ⎟
⎝ ⎠
7 94 1 16
0 0 − 13 117 8 2 3 − 13

De esto, el sistema a resolver es


⎛ ⎞ ⎛ ⎞
3 −2 1 ⎛ ⎞ 1
⎜ ⎟ x ⎜ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ 13 20 ⎟ ⎜ ⎟ ⎜ 1 ⎟
⎜ 0 − ⎟⎜ ⎟ ⎜ ⎟
⎜ 3 ⎟ ⎜ y ⎟=⎜ 3 ⎟
⎜ 3 ⎟⎜ ⎟ ⎜ ⎟
⎜ ⎟⎝ ⎠ ⎜ ⎟
⎝ 7 ⎠ ⎝ 94 ⎠
0 0 − z
  13  117
U

La matriz L es
⎛ ⎞
1 0 0
⎜ ⎟
⎜ ⎟
⎜ 2 ⎟
⎜ 1 0 ⎟
L=⎜ 3 ⎟
⎜ ⎟
⎜ ⎟
⎝ 1 16 ⎠
− 1
3 13
y la matriz de permutación P es

⎛ ⎞
0 0 1
P =⎝ 1 0 0 ⎠
0 1 0
Sergio Plaza 119

Ahora es fácil verificar que P A = LU .

Ejemplo 60 Consideremos la matriz


⎛ ⎞
0 0 −1 1
⎜ 1 1 −1 2 ⎟
A=⎜
⎝ 1

1 0 3 ⎠
1 2 −1 3

puesto que a11 = 0 la matriz no posee una factorización LU . Pero si realizamos el intercambio
de filas F1 ↔ F2 , seguido de F3 → (F3 − F1 ) y de F4 → (F4 − F1 ) obtenemos

⎛ ⎞
1 1 −1 2
⎜ 0 0 −1 1 ⎟
⎜ ⎟.
⎝ 0 0 1 1 ⎠
0 1 0 1

Realizando las operaciones elementales F2 ↔ F4 y F4 → (F4 + F3 ) , obtenemos

⎛ ⎞
1 1 −1 2
⎜ 0 1 0 1 ⎟
U =⎜
⎝ 0
⎟.
0 1 1 ⎠
0 0 0 2

La matriz de permutación asociada al cambio de filas F1 ↔ F2 seguida del intercambio de


filas F2 ↔ F4 es

⎛ ⎞
0 1 0 0
⎜ 0 0 0 1 ⎟
P =⎜
⎝ 0
⎟.
0 1 0 ⎠
1 0 0 0

La eliminación gaussiana en P A se puede realizar sin intercambio de filas usando las opera-
ciones F2 → (F2 − F1 ) , F3 → (F3 − F1 ) y (F4 + F3 ) → F4 , esto produce la factorización LU
de P A

⎛ ⎞ ⎛ ⎞⎛ ⎞
1 1 −1 2 1 0 0 0 1 1 −1 2
⎜ 1 2 −1 3 ⎟ ⎜ 1 1 0 0 ⎟ ⎜ 0 1 0 1 ⎟
PA = ⎜
⎝ 1
⎟=⎜ ⎟⎜ ⎟ = LU.
1 0 3 ⎠ ⎝ 1 0 1 0 ⎠⎝ 0 0 1 1 ⎠
0 0 −1 2 0 0 −1 1 0 0 0 2

Al multiplicar por P −1 = P T obtenemos la factorización

⎛ ⎞⎛ ⎞
0 0 −1 1 1 1 −1 2
T ⎜ 1 0 0 ⎟ ⎜
0 ⎟⎜ 0 1 0 1 ⎟
A= P L U =⎜
⎝ 1
⎟.
0 1 0 ⎠⎝ 0 0 1 1 ⎠
1 1 0 0 0 0 0 2
Sergio Plaza 120

3.7 Matrices especiales


En esta sección nos ocuparemos de clases de matrices en las cuales podemos realizar la elimi-
nación gaussiana sin intercambio de filas.
Decimos que una matriz A ∈ M (n × n, R) es diagonal dominante si

-
n
|aii | > |aij |
j = 1
j = i

para todo i = 1, 2, . . . , n .

Ejemplo 61 Consideremos las matrices

⎛ ⎞ ⎛ ⎞
7 2 0 6 4 −3
A=⎝ 3 5 −1 ⎠ y B = ⎝ 4 −2 0 ⎠ .
0 5 −6 −3 0 1

La matriz A es diagonal dominante y la matriz B no es diagonal dominante, pues por


ejemplo |6| < |4| + |−3| = 7 .

Teorema 3.15 Toda matriz A ∈ M (n × n, R) diagonal dominante tiene inversa, más aun,
en este caso podemos realizar la eliminación gaussiana de cualquier sistema lineal de la forma
Ax = b para obtener su solución única sin intercambio de filas, y los cálculos son estables
respecto al crecimiento de los errores de redondeo.

Teorema 3.16 Si A ∈ M (n × n, R) es una matriz definida positiva entonces

1. A tiene inversa.

2. aii > 0, para todo i = 1, 2, . . . , n .

3. max1 k, j n |akj |  max1 i n |aii | .

4. (aij )2 < aii ajj , para todo i = j

Teorema 3.17 Una matriz simétrica A es definida positiva si y sólo si la eliminación gaus-
siana sin intercambio de filas puede efectuarse en el sistema Ax = b con todos los elementos
pivotes positivos. Además, en este caso los cálculos son estables respecto al crecimiento de los
errores de redondeo.

Corolario 3.2 Una matriz simétrica A es definida positiva si y sólo si A puede factorizarse
en la forma LDLT , donde L es una matriz triangular inferior con unos en su diagonal y D
es una matriz diagonal con elementos positivos a lo largo de la diagonal.

Corolario 3.3 Una matriz simétrica A es definida positiva si y sólo si A puede factorizarse
de la forma LLT , donde L es una matriz triangular inferior con elementos distintos de cero
en su diagonal.
Sergio Plaza 121

Corolario 3.4 Sea A ∈ M (n × n, R) una matriz simétrica a la cual puede aplicarse la elim-
inación gaussiana sin intercambio de filas. Entonces, A puede factorizarse en LDLT , donde
L es una matriz triangular inferior con unos en su diagonal y donde D es una matriz diagonal
(1) (n)
con a11 , . . . , ann en su diagonal.

Ejemplo 62 La matriz
⎛ ⎞
4 −1 1
A = ⎝ −1 4.25 2.75 ⎠
1 2.75 3.5
es definida positiva. La factorización LDLT de la matriz A es

⎛ ⎞⎛ ⎞⎛ ⎞
1 0 0 4 0 0 1 −0.25 0.25
A= ⎝ −0.25 1 0 ⎠ ⎝ 0 4 0 ⎠ ⎝ 0 1 0.75 ⎠
0.25 0.75 1 0 0 1 0 0 1

mientras que su descomposición de Cholesky es

⎛ ⎞⎛ ⎞
2 0 0 2 −0.5 0.5
A = ⎝ −0.5 2 0 ⎠ ⎝ 0 2 1.5 ⎠ .
0.5 1.5 1 0 0 1

Definición 3.10 Una matriz A ∈ M (n × n, R) es llamada matriz banda si existen enteros


p y q con 1 < p, q < n , tales que aij = 0 siempre que i + p  j o j + q  i . El ancho de la
banda de este tipo de matrices esta dado por w = p + q − 1 .

⎛ ⎞
1 2 0
Ejemplo 63 La matriz A = ⎝ 2 1 2 ⎠ es una matriz de banda con p = q = 2 y con
0 1 1
ancho de banda 3.

Definición 3.11 Una matriz A ∈ M (n × n, R) se denomina tridiagonal si es una matriz de


banda con p = q = 2 .

Observación. Los algoritmos de factorización pueden simplificarse considerablemente en el


caso de las matrices de banda.
Para ilustrar lo anterior, supongamos que podemos factorizar una matriz tridiagonal A en
las matrices triangulares L y U . Ya que A tiene sólo 3n−2 elementos distintos de cero, habrá
apenas 3n − 2 condiciones aplicables para determinar los elementos de L y U , naturalmente
a condición de que también se obtengan los elementos cero de A . Supongamos que podemos
encontrar las matrices de la forma
⎛ ⎞ ⎛ ⎞
l11 0 ··· ··· 0 1 u12 0 ··· 0
⎜ . . .. .. ⎟ ⎜ . . .. .. ⎟
⎜ l ⎟ ⎜ 0 1 ⎟
⎜ 21 l22 . . . ⎟ ⎜ . . . ⎟
⎜ . ⎟ ⎜ . ⎟

L=⎜ 0 . . . . . . . ⎟ ⎜ . . . . . . . ⎟
. . . . ⎟ y U =⎜ . . . . 0 ⎟
⎜ . ⎟ ⎜ ⎟
⎜ . .. .. .. ⎟ ⎜ .. .. .. .. ⎟
⎝ . . . . 0 ⎠ ⎝ . . . . u ⎠
n−1 n
0 ··· 0 ln n−1 lnn 0 ··· ··· 0 1
Sergio Plaza 122

De la multiplicación que incluye A = LU , obtenemos

a11 = l11 ;
ai i−1 = li i−1 para cada i = 2, 3, . . . , n;
aii = li i−1 ui−1 i + lii para cada i = 2, 3, . . . , n;
ai i+1 = lii ui i+1 para cada i = 1, 2, 3, . . . , n − 1;

3.8 Solución de sistemas de ecuaciones lineales: métodos


iterativos
En general, puede resultar muy engorroso encontrar la solución exacta a un sistema de ecua-
ciones lineales, y por otra parte, a veces nos basta con tener buenas aproximaciones a dicha
solución. Para obtener estas últimas usamos métodos iterativos de punto fijo, que en este caso
particular resultan ser más analizar su convergencia.

Teorema 3.18 Consideremos un método iterativo

x(k+1) = Gx(k) + c (3.27)

donde G ∈ M (n×n, R) , x, c ∈ Rn . Entonces el método iterativo es convergente, para cualquier


condición inicial x(0) elegida arbitrariamente si y sólo si ρ(G) < 1 . Además, si existe una
norma | || en M (n × n, R) , en la cual se tiene ||G|| < 1 , entonces el método iterativo
converge cualesquiera que sea la condición inicial x(0) ∈ Rn dada. Si tomamos x(k) como una
aproximación al punto fijo xT del método iterativo (3.27), entonces valen las desigualdades
siguientes,
3 3 ρ(G)k 3 3
3 (k) 3 3 (1) 3
3x − x3  3x − x(0) 3 . (3.28)
1 − ρ(G)
y
3 3 λk 3 3
3 (k) 3 3 (1) 3
3x − x3  3x − x(0) 3 , (3.29)
1−λ
donde λ = ||G|| .

Observación. Si el método iterativo x(k+1) = Gx(k) + c es convergente y tiene por lı́mite a


x ∈ Rn , entonces  
x = lim x(k+1) = G lim x(k) + c = Gx + c,
k→∞ k→∞

de donde x = (I − G)−1 c .

Regresemos al problema inicial de resolver el sistema de ecuaciones lineales

Ax = b,

donde A = (aij ) ∈ M (n × n, R) , b = (b1 , b2 , . . . , bn )T ∈ Rn y x = (x1 , x2 , . . . , xn )T ∈ Rn


es la incógnita.
Sergio Plaza 123

Consideremos una matriz Q ∈ M (n × n, R) , la cual suponemos tiene inversa. Tenemos que


Ax = b es equivalente a escribir 0 = −Ax + b , sumando a ambos miembros de esta última
igualdad el término Qx , no queda la ecuación Qx = Qx − Ax + b , multiplicando esta ecuación
por la izquierda por Q−1 obtenemos x = (I − Q−1 A)x + Q−1 b , lo que nos sugiere proponer
el siguiente método iterativo para resolver la ecuación original Ax = b ,

x(k+1) = (I − Q−1 A)x(k) + Q−1 b, (3.30)

donde x(0) ∈ Rn es arbitrario. Sobre la convergencia del método propuesto, tenemos el siguiente
corolario.

Corolario 3.5 La fórmula de iteración x(k+1) = I − Q−1 A x(k) + Q−1 b define una sucesión
que converge a la solución de Ax = b , para cualquier condición inicial x(0) ∈ Rn si y sólo

si ρ I − Q−1 A < 1 . Además, si existe una norma | || en M (n × n, R) , en la cual se
tiene ||I − Q−1 A|| < 1 , entonces el método iterativo converge cualesquiera que sea la condición
inicial x(0) ∈ Rn dada.

Observación La fórmula de iteración



x(k+1) = I − Q−1 A x(k) + Q−1 b

define un método iterativo de punto fijo. En efecto, consideremos la función F : Rn −→ Rn



definida por F (x) = I − Q−1 A x + Q−1 b . Observemos que si x es un punto fijo de F

entonces x es una solución de la ecuación Ax = b . Además, si x = I − Q−1 A x + Q−1 b
entonces se tiene que
 
x(k) − x = I − Q−1 A x(k−1) − x ,
por lo tanto 3 3 3
3 (k) 3 3 3
3
3
3
3x − x3  3I − Q−1 A3 3x(k−1) − x3 ,
de donde, iterando esta desigualdad obtenemos
3 3 3 3k 3 3
3 (k) 3 3 3
3x − x3  3I − Q−1 A3 3x(0) − x3 ,
3 3 3 3
luego si 3I − Q−1 A3 < 1 , se tiene de inmediato que limk→∞ 3x(k) − x3 = 0 para cualquier
x(0) ∈ Rn dado.
3 3
Observación. La condición 3I − Q−1 A3 < 1 implica que las matrices Q−1 A y A tienen
inversas.
3 3
Teorema 3.19 Si 3I − Q−1 A3 < 1 para alguna norma matricial subordinada en M (n ×

n, R) , entonces el método iterativo x(k+1) = I − Q−1 A x(k) + Q−1 b es convergente
3 a 3
una
solución de Ax = b , para cualquier vector inicial x(0)
∈ R n
. Además, si λ = 3I − Q−1 A3 <
3 3
1 , podemos usar el criterio de parada 3x(k) − x(k−1) 3 < ε y se tiene que

3 3 λ 3 3 λk 3 3
3 (k) 3 3 (k) 3 3 (1) 3
3x − x3  3x − x(k−1) 3  · · ·  3x − x(0) 3 .
1−λ 1−λ
, es decir,
3 3 λk 3 3
3 (k) 3 3 (1) 3
3x − x3  3x − x(0) 3 . (3.31)
1−λ
Sergio Plaza 124

También vale la desigualdad siguiente


3 3 ρ(I − Q−1 A)k 3 3
3 (k) 3 3 (1) (0) 3
3x − x3  3x − x 3. (3.32)
1 − ρ(I − Q−1 A)

Observación. Desde la definición de radio espectral de una matriz, se tiene que ρ(A) < 1
implica que existe una norma matricial || || en M (n×n, R) , tal que ||A|| < 1 . Por otra parte, si
||A|| < 1 para alguna norma matricial en M (n×n, R) entonces se tiene que ρ(A) < 1 . Notemos
que si existe una norma matricial || || en M (n × n, R) , tal que ||A||  1 no necesariamente se
tiene que ρ(A)  1 .

Observación. Si M1 y M2 son dos métodos iterativos convergentes para resolver un sistema


de ecuaciones lineales Ax = b , digamos M1 : x(k+1) = G1 x(k) + c1 y M2 : x(k+1) =
G2 x(k) + c2 . Si ρ(G1 ))  ρ(G2 ) , entonces M1 converge más rápido que M2 a la solución de la
ecuación. Además, si existe una norma || · || en M (n × n, R) tal que ||G1 ||  ||G2 || , entonces
M1 converge más rápido que M2 a la solución de la ecuación.

3.9 Método de Richardson



Para este método tomamos QR = I , luego el método iterativo x(k+1) = I − Q−1 A x(k) +
Q−1 b se transforma en

x(k+1) = (I − A) x(k) + b, (3.33)


  
TR

el cual converge si y sólo si ρ(TR ) = ρ(I − A) < 1 .

Si existe una norma matricial  ·  para la cual se tiene que TR  = ||I − A|| < 1 , entonces
el método iterativo de Richardson es convergente.

Ejemplo 64 Resolver el sistema de ecuaciones lineales usando el método de Richardson.

⎛ 1 1
⎞ ⎛ 11

1
⎟⎛ x ⎞ ⎜
2 3 18
⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟⎝ ⎜ ⎟
⎜ 1
3 1 1
2 ⎟ y ⎠=⎜ 11
18 ⎟
⎜ ⎟ ⎜ ⎟
⎝ ⎠ z ⎝ ⎠
1 1 11
2 3 1 18

Solución. Tenemos
⎛ 1 1
⎞ ⎛ ⎞
1 0 − 12 − 31
⎛ ⎞ ⎜ 2 3
⎟ ⎜ ⎟
1 0 0 ⎜ ⎟ ⎜ ⎟
⎜ 1 ⎟ ⎜ ⎟
TR = I − A = ⎝ 0 1 0 ⎠−⎜ 1
3 1 2 ⎟
= ⎜ −1 0 − 21 ⎟
⎜ ⎟ ⎜ 3 ⎟
0 0 1 ⎝ ⎠ ⎝ ⎠
1 1
2 3 1 − 21 − 13 0
Sergio Plaza 125

Llamando x(j) = (xj yj zj )T , nos queda


⎛ ⎞ ⎛ ⎞
0 − 12 − 31 11
⎟⎛ x ⎞ ⎜
18
⎜ ⎟
⎜ ⎟ k ⎜ ⎟
⎜ ⎟⎝ ⎜ ⎟
x(k+1) = TR x(k) + b = ⎜ − 13 0 − 21 ⎟ yk ⎠ + ⎜ 11
18 ⎟
⎜ ⎟ ⎜ ⎟
⎝ ⎠ zk ⎝ ⎠
− 12 − 13 0 11
18

5
se tiene ||TR ||∞ = 6 < , luego el método iterativo de Richardson para este sistema converge.

3.10 Método de Jacobi


En este caso tomamos

⎛ ⎞
a11 ··· 0
⎜ .. .. .. ⎟
QJ = diag (A) = ⎝ . . . ⎠
0 ··· ann

donde los elementos fuera de la diagonal en QJ son todos iguales a 0. Notemos que det(QJ ) =
a11 a22 · · · ann , luego det(QJ ) = 0 si y sólo si aii = 0 para todo i = 1, . . . , n , es decir, QJ
tiene inversa si y sólo si aii = 0 para todo i = 1, . . . , n .
Como antes, colocando esta matriz QJ = diag(A) en la fórmula iterativa definida por


x(k+1) = I − diag(A)−1 A x(k) + diag(A)−1 b , (3.34)
  
TJ

obtenemos un método iterativo convergente si y sólo si ρ(TJ ) = ρ(I − diag(A)−1 A) < 1 . Si


existe una norma matricial  ·  para la cual se tiene que TJ  = ||I − diag(A)−1 A|| < 1 ,
entonces el método iterativo de Jacobi es convergente.
Examinemos un poco más la fórmula iterativa del método de Jacobi. Tenemos, en este caso,
que un elemento genérico de Q−1 A es de la forma aij
a
ii
y todos los elementos de la diagonal de
−1
Q A son iguales a 1. Luego, tomando la norma  ∞ en M (n × n, R) tenemos que
⎧ ⎫
3 3 ⎨ -
n
|aij | ⎬
3I − diag(A)−1 A3 = max .
∞ 1in ⎩ |aii | ⎭
j=1 ,j=i

Recordemos que una matriz A es diagonal dominante si

-
n
|aii | > |aij | , 1  i  n,
j=1 , j=i

n

aij

es decir,
aii
< 1 , por lo tanto tenemos el siguiente teorema.
j=1 , j=i

Teorema 3.20 Si A es una matriz diagonal dominante, entonces el método iterativo de Ja-
cobi es convergente para cualquiera que sea la condición inicial x(0) elegida.
Sergio Plaza 126

3.11 Método de Gauss–Seidel


En esta caso, consideremos la matriz Q como la matriz triangular obtenida considerando la
parte triangular inferior de la matriz A incluyendo su diagonal, es decir,

⎛ ⎞
a11 0 ··· 0
⎜ a21 a22 ··· 0 ⎟
⎜ ⎟
QG-S = ⎜ .. .. .. .. ⎟
⎝ . . . . ⎠
an1 an2 ··· ann

Se tiene que det(QG-S ) = a11 a22 · · · ann . Luego, det(QG-S ) = 0 si y sólo si aii = 0 ( i =
1, . . . , n ). Usando la matriz QG-S , obtenemos el método iterativo

x(k+1) = I − Q−1 A x(k) + Q−1 b. (3.35)
  
G-S G-S

TG-S

Teorema 3.21 Sea A ∈ M (n × n, R) . Entonces el método iterativo de Gauss–Seidel es


convergente si y sólo si ρ(TG-S ) = ρ(I − Q−1
G-S
A) < 1 , donde QG-S es la matriz triangular
inferior definida arriba a partir de A .

Como en el caso del método iterativo de Jacobi, tenemos el siguiente teorema.

Teorema 3.22 Si A ∈ M (n × n, R) es una matriz es diagonal dominante entonces el método


de Gauss–Seidel converge para cualquier elección inicial x(0) .

Ejemplo 65 Considere el sistema de ecuaciones lineales

⎛ ⎞⎛ ⎞ ⎛ ⎞
4 2 1 x 5
⎝ 2 5 2 ⎠⎝ y ⎠ = ⎝ 4 ⎠
1 2 6 z 7

Explicitaremos los métodos iterativos de Jacobi y Gauss–Seidel para este sistema. Estudi-
aremos la convergencia de ellos sin iterar. Finalmente, sabiendo que la solución exacta del
sistema es (xT , yT , zT ) = (1, 0, 1) y usando el punto de partida (1, 1, 1) nos podemos pregun-
tar ¿Cuál de ellos converge más rápido?, para las comparaciones usaremos la norma  ∞ en
M (n × n, R) .
Primero que nada tenemos que los métodos iterativos de Jacobi y Gauss–Seidel convergen,
pues la matriz asociada al sistema es diagonal dominante.
Explicitaremos el método de Jacobi. En este caso tenemos

⎛ ⎞
4 0 0
QJ = ⎝ 0 5 0 ⎠
0 0 6

por lo tanto
Sergio Plaza 127

⎛ 1 ⎞
4 0 0
Q−1
J =⎝ 0 1
5 0 ⎠
1
0 0 6

luego

⎛ 1 ⎞⎛ ⎞ ⎛ 1 1 ⎞
4 0 0 4 2 1 1 2 4
Q−1
J A =⎝ 0 1
5 0 ⎠ ⎝ 2 5 2 ⎠ = ⎝ 2
5 1 2
5

1 1 1
0 0 6 1 2 6 6 3 1

de donde
⎛ ⎞ ⎛ 1 ⎞⎛ ⎞ ⎛ ⎞
0 − 12 − 14 4 0 0 5 5
4
TJ I − Q−1 A = ⎝ −2 − 25 ⎠ y Q−1 ⎝ 0 1
0 ⎠⎝ 4 ⎠ = ⎝ 4 ⎠ ,
J 5 0 J b = 5 5
− 61 − 13 0 0 0 1
6 7 7
6
por lo tanto

⎪ −2yk − zk + 5

⎪ xk+1 =

⎪ 4




−2xk − 2zk + 4
yk+1 =

⎪ 5





⎩ zk+1 = −xk − 2yk + 7

6
Como ||TJ ||∞ = max{| 21 | + | −1 −2 −2 −1 −1 3 4 1
4 |, | 5 | + | 5 |, | 6 | + | 3 |} = max{ 4 , 5 , 2 } = {0.75, 0.8, 0.5} =
0.8 < 1 , el método de Jacobi converge para cualquier condición inicial x(0) ∈ Rn dada. Ahora
explicitemos el método de Gauss–Seidel. En este caso,

⎛ ⎞ ⎛ 1 ⎞
4 0 0 4 0 0
QG-S =⎝ 2 5 0 ⎠ por lo tanto Q−1
G-S
=⎝ 1
− 10 2
10 0 ⎠
1 8 20
1 2 6 − 120 − 120 120

ası́ obtenemos que


⎛ 1 ⎞⎛ ⎞ ⎛ 1 1 ⎞
4 0 0 4 2 1 1 2 4
Q−1
G-S
A=⎝ 1
− 10 2
10 0 ⎠⎝ 2 5 2 ⎠ =⎝ 0 8
10
3
10

1 8 20 2 103
− 120 − 120 120 1 2 6 0 − 120 120

⎛ ⎞ ⎛ ⎞
0 − 21 − 41 5
4
−1
luego I − QG-S A = ⎝ 0 2 3 ⎠
− 10 y Q−1 b=⎝ 3 ⎠ , por lo tanto
10 G-S 10
2 17 103
0 120 120 120

⎪ −2yk − zk + 5

⎪ xk+1 =

⎪ 4




2yk − 3zk + 3
yk+1 =

⎪ 10





⎪ 2yk − 17zk + 103
⎩ zk+1 =
120
Sergio Plaza 128

Como ||TG-S ||∞ = max{| −1 −1 2 −3 2 17 3 5 19


4 | + | 4 |, | 10 | + | 10 |, | 120 | + | 120 } = max{ 4 , 10 , 120 } = 0.75 < 1 .
(0)
Luego, el método de Gauss–Seidel converge para cualquier condición inicial x ∈ Rn dada.

Notemos que cómo ||TG-S ||∞ < ||TJ ||∞ , vemos que el método de Gauss–Seidel converge más
rápido que el método de Jacobi.
Ejercicio. Realizar las iteraciones en ambos caso, Jacobi y Gauss-Seidel para este ejemplo.

3.12 Método SOR (successive overrelaxation)

Este método, también llamado sobre-relajación sucesiva.


Supongamos que escogemos la matriz Q como QSOR = ω1 D − C , donde ω ∈ R , ω = 0 , es
un parámetro, D es una matriz simétrica, positiva definida y C satisface C + C T = D − A ,
tenemos entonces el método iterativo
(k)
x(k+1) = I − Q−1
SOR A x + Q−1
SOR b , (3.36)
  
TSOR

Teorema 3.23 Si A es simétrica y positiva definida, QSOR es no singular y 0 < ω < 2 ,


entonces el método iterativo SOR converge para todo valor inicial dado.

Recordemos que una matriz A ∈ M (n × n, R) de la forma


⎛ ⎞
a1 b1 0 0 ··· 0
⎜ ··· ⎟
⎜ c2 a2 b2 0 0 ⎟
⎜ ⎟
⎜ 0 c3 a3 b3 ··· 0 ⎟
A=⎜
⎜ .. .. .. .. ..


⎜ . . . . . 0 ⎟
⎜ ⎟
⎝ 0 ··· 0 cn−1 an−1 bn−1 ⎠
0 ··· 0 0 cn an

es llamada tridiagonal.

Teorema 3.24 Si A es simétirca, positiva definida y tridiagonal, entonces, en caso se tiene


ρ(TG-S ) = ρ(TJ )2 , donde TJ = D−1 (CL + CU ) es la matriz de iteración en el método de Jacobi
y TG-S = (D − CL )−1 CU es la matriz de iteración en el método de Gauss–Seidel. Además, la
elección óptima de ω en el método SOR es

2 2
ωopt =  =  (3.37)
1 + 1 − ρ(TJ )2 1 + 1 − ρ(TG-S )

Por otra parte, también se tiene

ρ(TSOR,ωopt ) = ωopt − 1 . (3.38)


Sergio Plaza 129

3.13 Otra forma de expresar los métodos iterativos para


sistemas lineales
Sea ⎛ ⎞
a11 ··· a1n
⎜ .. .. .. ⎟
A=⎝ . . . ⎠
an1 ··· ann

podemos escribir A en la forma

⎛ ⎞
a11 · · · a1n
⎜ .. .. .. ⎟
A = ⎝ . . . ⎠
an1 · · · ann
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
a11 0 · · · 0 0 0 ··· 0 0 −a12 ··· −a1n
⎜ 0 a22 · · · 0 ⎟ ⎜ −a21 0 ··· 0 ⎟ ⎜ .. .. ⎟
⎜ ⎟ ⎜ ⎟ ⎜ 0 0 . . ⎟
= ⎜ . . . .. ⎟−⎜ .. .. .. ..⎟−⎜ ⎟
⎝ .. .. .. . ⎠ ⎝ . . . .⎠ ⎝ 0 0 ··· −an−1n ⎠
0 ··· 0 ann −an1 ··· −ann−1 0 0 0 ··· 0
        
D CL CU

Notemos primero que Ax = b si y sólo si (D − CL − CU )x = b si y sólo si Dx = (CL +


CU )x + b .
Veamos como quedan los métodos anteriores con esta notación.
Método de Jacobi. Si det(D) = 0 , entonces como (D − CL − CU )x = b se sigue que

x = D−1 (CL + CU ) x + D −1
  b (3.39)
  
Tj CJ

luego el método de Jacobi se puede escribir como

x(k+1) = D−1 (CL + CU ) x(k) + D −1


  b
  
Tj CJ

Método de Gauss–Seidel. Este se puede escribir como

(D − CL )x(k+1) = CU x(k) + b (3.40)

de donde, si det(D − CL ) = 0 nos queda

x(k+1) = (D − CL )−1 CU x(k) + (D − CL )−1 b


     
TG-S CG-S

Resumen. Supongamos que la matriz A se escribe en la forma A = D − CL − CU , donde


D = diag(A) , CL es el negativo de la parte triangular inferior estricta de A y CU es el
negativo de la parte triangular superior estricta de A . Entonces podemos rescribir los métodos
iterativos vistos antes como sigue:
Sergio Plaza 130

Richardson


Q=I
G=I −A

x(k+1) = (I − A)x(k) + b

Jacobi


Q=D
G = D−1 (CL + CU )

Dx(k+1) = (CL + CU )x(k) + b


Gauss-Seidel
Q = D − CL
G = (D − CL )−1 CU

(D − CL )x(k+1) = CU x(k) + b
SOR
Q = ω −1 (D − ωCL )
G = (D − ωCL )−1 (ωCU + (1 − ω)D)

(D − ωCL )x(k+1) = ω(CU x(k) + b) + (1 − ω)Dx(k)

1
ω= α, 0 < ω < 2.

3.14 Ejemplos resueltos


Problema 3.1 Considere el sistema de ecuaciones lineales
⎛ ⎞
1 1 ⎛ ⎞ ⎛ 7 ⎞
⎜ 3 ⎟
4 ⎟ x1
⎜ ⎠=⎜ 12 ⎟
⎜ ⎟⎝ ⎝ ⎠.
⎝ 1 1 ⎠
x2 0.45
4 5
 
0.58
(a) Para realizar los cálculos con decimales, se considera el vector b̂ = . Obtenga
0.45
una cota para el error relativo de la solución del sistema con respecto a la solución del
sistema Ax = b̂ .
(b) Ahora considere la matriz perturbada
 
0.33 0.25
 = .
0.25 0.20

Obtenga una cota para el error relativo de la solución del sistema original con respecto a
la solución del sistema Âx = b .
Sergio Plaza 131

Solución. Tenemos el sistema de ecuaciones lineales


⎛ ⎞
1 1 ⎛ ⎞ ⎛ 7 ⎞
⎜ 3 4 ⎟ x1
⎜ ⎟⎝ ⎠=⎜ 12 ⎟
⎜ ⎟ ⎝ ⎠.
⎝ 1 1 ⎠
x2 0.45
4 5
7 ⎞ ⎛
 
0.58 ⎜ 12 ⎟
a) El vector b̂ = es una perturbación del vector b = ⎝ ⎠ . Sean xT la
0.45
0.45
solución exacta del sistema Ax = b y xA la solución exacta del sistema Ax = b̂ . Se tiene
entonces que xA es una aproximación a xT . Para simplificar los cálculos trabajaremos con la
norma subordinada || · ||∞ . Como b̂ es una perturbación de b , tenemos la fórmula

||xT − xA ||∞ ||b − b̂||∞


ER (xA ) =  ||A||∞ ||A−1 ||∞ .
||xT ||∞ ||b||∞

Ahora,  
3.33333333 × 10−3
b − b̂ = .
0
 
a11 a12
Recordemos que si A = , entonces
a21 a22
 
1 a22 −a12
A−1 =
det(A) −a21 a11
⎛ 1 1 ⎞
3 4
En nuestro caso, det ⎝ ⎠= 1
240 . Luego,
1 1
4 5
⎛ 1 ⎞ ⎛ ⎞
5 − 14 1
5 − 41  
−1 1 ⎝ ⎠ = 240 ⎝ ⎠= 48 −60
A = 1 .
−60 80
240 − 41 1
3 − 41 1
3

De esto, tenemos

, ,
1 1 1 1 7 9 7
||A||∞ = max + , + = max , =
3 4 4 5 12 20 12

||A−1 ||∞ = max{|48| + | − 60|, | − 60| + |80|} = 140

,
7 7
||b||∞ = max , 0.45 =
12 12

||b̂||∞ = max{0.58, 0.45} = 0.58

||b − b̂||∞ = max{3.33333333 × 10−3 , 0} = 3.33333333 × 10−3 .


Sergio Plaza 132

Reemplazando nos queda

7 3.3333333 × 10−3
ER (xA )  140 7 = 0.4666666662 ,
12 12

esto es, ER (xA )  0.4666666662 .


b) Consideremos ahora la matriz perturbada

 
0.33 0.25
 = .
0.25 0.20

Podemos escribir  en la forma  = A(I + E) , donde I es la matriz identidad 2 × 2 y E


es la matriz de error, esto es, .E =  − A . Como  = A(I + E) , se tiene que  − A = AE .
Luego,

⎛ 1 1 ⎞
   
0.33 0.25 3 4 −3.33333333 × 10−3 0
AE = Â − A = −⎝ ⎠= ,
0.25 0.20 1 1 0 0
4 5

de donde ||AE||∞ = 3.33333333 × 10−3 .


Veamos si podemos usar la fórmula

||xT − xA || k(A) ||AE||


 · ,
||xT || ||AE||
1 − k(A) ||A|| ||A||

para ello debemos verificar que

1
||AE|| < .
||A−1 ||

Como ||A||∞ = 140 y ||AE||∞ = 3.33333333 × 10−3 , se cumple que

1
||AE||∞ < = 7.14285714 × 10−3 ,
140

y podemos aplicar la fórmula anterior. Reemplazando nos queda

||xT − xA ||∞ 81.66666667 3.3333333 × 10−3


 ×
||xT ||∞ 1 − 81.66666667 × 3.33333333×10
0.5833333333
−3
0.5833333333
81.66666667
= × 5.7142857 × 10−3
1 − 81.66666667 × 5.7142857 × 10−3
0.466666667
= = 0.8749999945
0.5333333349

Luego ER (xA )  0.8749999945 .


Sergio Plaza 133

Problema 3.2 Dada la matriz


⎡ ⎤ ⎡ ⎤
2 −1 −1 1 1 0
A = ⎣ −1 1 1 ⎦ se tiene que A−1 = ⎣ 1 5/2 −1/2 ⎦
−1 1 3 0 −1/2 1/2

(a) Obtenga la descomposición de Cholesky de A . Utilice lo anterior para resolver el sistema


Ax = b para el vector b = (1, 1, 2)T .

(b) Estime a priori la magnitud del error relativo si la matriz A se perturba quedando
finalmente ⎡ ⎤
2 −0.99 −0.98
à = ⎣ −1 1 0.99 ⎦
−1 1.02 2.99

Solución.

(a) Tenemos que

⎡ ⎤
2 −1 −1
A = ⎣ −1 1 1 ⎦
−1 1 3
 
2 −1
es simétrica. Ahora, A1 = [2] , luego det(A1 ) = 2 > 0 , A2 = y det(A2 ) =
−1 1
⎡ ⎤
2 −1 −1
1 > 0 , A3 = A = ⎣ −1 1 1 ⎦ y det(A3 ) = 2 > 0 . Por lo tanto A es positiva
−1 1 3
definida, y consecuentemente tiene descomposición de Cholesky.
Para obtener la descompsición de Cholesky de A escribamos

⎡ ⎤ ⎡ ⎤⎡ ⎤
2 −1 −1 11 0 0 11 21 31
⎣ −1 1 1 ⎦ = ⎣ 21 22 0 ⎦⎣ 0 22 32 ⎦
−1 1 3 31 32 33 0 0 33
√ √
De aquı́, 211 = 2 , de donde 11 = 2 ; 11 21 = −1 , de donde 21 = − 22 , 11 31 = −1 ;
√ √ √
31 = − 22 ; 221 + 222 = 1 , de donde 22 = 22 ; √
21 31 + 22 32 = 1 , de donde 32 = 22 ;
finalmente 231 + 232 + 233 = 3 , de donde 33 = 2 . Por lo tanto,

⎡ ⎤ ⎡ √ ⎤⎡ √ √ √ ⎤
2 −1 −1 2 0 0 2 −√ 22 −√ 22
⎣ −1 1 ⎦ ⎢ √2 √
2 ⎥⎢ ⎥
1 = ⎣ − √2 0 ⎦⎣ 0 2 2 ⎦
√2 √ 2 √2
−1 1 3 − 22 2
2
2 0 0 2

Ahora, resolver el sistema Ax = b , con bT = (1, 1, 2) es equivalente a resolver los


sistemas
Ly = b
LT x = y
Sergio Plaza 134

El sistema Ly = b ⎡ √ ⎤⎡ ⎤ ⎡ ⎤
2 0 0 α 1
⎢ √2 √


⎣ √2 2
0 ⎦⎣ β ⎦ = ⎣ 1 ⎦
√2 √
− 22 2
2
2 γ 2
√ √ √ √
De aquı́ 2 α = 1 , de donde α = 22 ; − 22 α + 22 β = 1 , reemplazando y despejando
√ √ √ √
nos da que β = 32 2 ; finalmente − 22 α + 22 β + 2γ = 2 , reemplazando y despejando

nos da que γ = 22 . Debemos resolver ahora el sistema LT x = y , es decir,
⎡ √ √ √ ⎤⎡
⎤ ⎡ √ ⎤
2
2 −√ 22 −√ 22 x 2

⎢ 2 2 ⎥⎣ y ⎦ = ⎢ 3 2 ⎥
⎣ 0 ⎦ ⎣ ⎦
2 √2 √2
2
0 0 2 z
2

1 5
de donde z = 2 , y= 2 , x = 2.

(b) Sean xT y xA las soluciones exactas de los sistemas Ax = b y Ãx = b , respectivamente,


es decir, xT = A−1 b . Entonces

E(xA = ||xA − xT || = ||xA − A−1 b||


= ||xA − A−1 ÃxA || = ||(I − A−1 Ã)xA ||
 ||I − A−1 Ã|| ||xA ||

de donde
||xA − xT ||
ER (xA ) =  ||I − A−1 Ã|| .
||xA ||

Para simplificar los cálculos usamos la norma subordinada || ||∞ . Ahora, tenemos
⎡ ⎤
1 1 0
⎢ 5 −1 ⎥
⎢ 1 ⎥
A−1 = ⎢
⎢ 2 2 ⎥

⎣ −1 1 ⎦
0
2 2
⎡ ⎤
2 −0.99 −0.98
à = ⎣ −1 1 0.99 ⎦
−1 1.02 2.99

luego,

⎡ ⎤
1 0.01 0.01
A−1 Ã = ⎣ 0 1.0 0 ⎦
0 0.01 1.0
Además, como
⎡ ⎤
1 0 0
I=⎣ 0 1 0 ⎦
0 0 1
Sergio Plaza 135

se tiene que
⎡ ⎤
0 −0.01 −0.01
I − A−1 Ã = ⎣ 0 0 0 ⎦
0 −0.01 0
||xA −xT ||∞
luego, ||I−A−1 Ã||∞ = max{0.02, 0, 0.01} = 0.02 , de donde ||xA ||∞  ||I−A−1 Ã||∞ =
0.02 .
Otra solución. Escribimos à de la forma à = A(I + E) . Entonces se tiene las fórmulas

1.
||xT − xA || ||E||
ER (xA ) = 
||xT || 1 − ||E||

si ||E|| < 1 .
2.
||xT − xA || k(A) ||AE||
ER (xA ) = 
||xT || 1 − k(A) ||A|| ||A||
||AE||

1
si ||AE|| < ||A−1 || .

Usemos por ejemplo la primera de ellas. Debemos calcular la matriz E . De la ecuación


à = A(I + E) se tiene que A−1 à = I + E , de donde, A−1 à − I = E . Realizando los
cálculos, obtenemos que
⎡ ⎤
0 0.01 0.01

E= 0 0 0 ⎦
0 0.01 0

Por simplicidad de los cálculos, usaremos la norma subordinada || ||∞ . Luego, ||E||∞ =
0.02 < 1 , por lo tanto, reemplazando nos queda,

||xT − xA || ||E|| 0.02 0.02


 = = = 0.0204016...
||xT || 1 − ||E|| 1 − 0.02 0.98

Ahora usamos la segunda de las fórmulas. Tenemos que calcular k(A) = ||A|| ||A−1 || .
Sabemos que
⎡ ⎤
2 −1 −1
A = ⎣ −1 1 1 ⎦ luego ||A||∞ = 5
−1 1 3
y
⎡ ⎤
1 1 0
⎢ 5 −1 ⎥
⎢ 1 ⎥
A −1
=⎢
⎢ 2 2 ⎥
⎥ luego ||A−1 ||∞ = 4 ,
⎣ −1 1 ⎦
0
2 2
Sergio Plaza 136

de donde k∞ (A) = 5 × 4 = 20 . Para aplicar la fórmula debemos verificar que ||AE||∞ <
1
||A−1 ||∞ . Tenemos que
⎡ ⎤
0 0.01 0.01
AE = ⎣ 0 0.005 0.01 ⎦
0 0.005 0

1 1
luego, ||AE||∞ = 0.02 y ||A−1 ||∞ = 4 , de aquı́ se tiene que ||A−1 ||∞ = 4 = 0.25 y
1
es claro entonces que se satisface la condición ||AE||∞ < ||A−1 ||∞ . Reemplazando los
valores obtenidos, nos queda

||xT − xA ||∞ 20 0.02 20 × 0.004


 · =
||xT ||∞ 1 − 20 · 0.02
5
5 1 − 20 × 0.004
0.08 0.08
= = = 0.08695652...
1 − 0.08 0.92

esto es,
||xT − xA ||∞
 0.08695652...
||xT ||∞

Problema 3.3 Sean

⎛ ⎞ ⎛ ⎞
1 −1 −1 −1 5.00
⎜ 0 1 −1 −1 ⎟ ⎜ 1.02 ⎟
A=⎜
⎝ 0
⎟ y b=⎜ ⎟
0 1 −1 ⎠ ⎝ 1.04 ⎠
0 0 0 1 1.10

(a) Calcule una solución aproximada xA del sistema Ax = b , primero aproximando cada
entrada del vector b al entero más próximo, obteniendo un vector b̃ y luego resolviendo
el sistema Ax = b̃ .

(b) Calcule ||r||∞ y k∞ (A) , donde r es el vector residual, es decir r = b − AxA y k∞ (A)
el número de condicionamiento de la matriz A.

(c) Estime una cota para el error relativo de la solución aproximada, respecto a la solución
exacta (no calcule esta última explı́citamente).

Solución.

(a) El vector perturbado es (5 1 1 1)T . Luego la solución del sistema perturbado es

⎛ ⎞⎛ ⎞ ⎛⎞
1 −1 −1 −1 x 5
⎜ 0 1 −1 −1 ⎟ ⎜ y ⎟ ⎜ 1 ⎟
⎜ ⎟⎜ ⎟=⎜ ⎟
⎝ 0 0 1 −1 ⎠ ⎝ z ⎠ ⎝ 1 ⎠
0 0 0 1 w 1

de donde (x, y, z, w) = (12, 4, 2, 1) = xA


Sergio Plaza 137

(b) Tenemos ||b||∞ = ||b̃||∞ = 5 . Por otra parte,

⎛ ⎞ ⎛ ⎞⎛ ⎞
5.00 1 −1 −1 −1 12
⎜ 1.02 ⎟ ⎜ 0 1 −1 −1 ⎟ ⎜ 4 ⎟
r = b − AxA ⎜ ⎟ ⎜ ⎟⎜ ⎟
= ⎝ 1.04 ⎠ − ⎝ 0 0 1 −1 ⎠ ⎝ 2 ⎠
1.10 0 0 0 1 1
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
5.00 5 0
⎜ 1.02 ⎟ ⎜ 1 ⎟ ⎜ 0.02 ⎟
⎜ ⎟ ⎜ ⎟=⎜ ⎟
= ⎝ 1.04 ⎠ − ⎝ 1 ⎠ ⎝ 0.04 ⎠
1.10 1 0.10

Luego, ||r||∞ = 0.10 .


Para encontrar la inversa de la matriz A basta resolver el sistema

⎛ ⎞⎛ ⎞ ⎛ ⎞
1 −1 −1 −1 a11 a12 a13 a14 1 0 0 0
⎜ 0 1 −1 −1 ⎟ ⎜ a21 a22 a23 a24 ⎟ ⎜ 0 1 0 0 ⎟
⎜ ⎟⎜ ⎟=⎜ ⎟
⎝ 0 0 1 −1 ⎠ ⎝ a31 a32 a33 a34 ⎠ ⎝ 0 0 1 0 ⎠
0 0 0 1 a41 a42 a43 a44 0 0 0 1

de donde

⎛ ⎞
1 1 2 4
⎜ 0 1 1 2 ⎟
A−1 =⎜
⎝ 0

0 1 1 ⎠
0 0 0 1

Luego, ||A−1 ||∞ = 8 . Tenemos que ||A||∞ = 4 , luego k∞ (A) = ||A||∞ ||A−1 ||∞ = 4×8 =
32 .

(c) Usamos la fórmula


1 ||r|| ||xT − xA || ||r||
  k(A)
k(A) ||b|| ||xT || ||b||
Reemplazando los datos nos queda

1 0.10 ||xT − xA || 0.10


×   32 ×
32 5 ||xT || 5
es decir,
||xT − xA ||
0.625 × 10−3   0.64 .
||xT ||

Problema 3.4 Encuentre una descomposición del tipo LU para la matriz A siguiente

⎛ ⎞
4 3 2 1
⎜ 3 4 3 2 ⎟
A=⎜
⎝ 2

3 4 3 ⎠
1 2 3 4

Use la descomposión anterior para solucionar el sistema Ax = (1 1 − 1 − 1)T .


Sergio Plaza 138

Solución. La descomposición de Doolittle de A es dada por


⎛ ⎞
⎛ ⎞ 4 3 2 1
1 0 0 0 ⎜ ⎟
⎜ 3 1 0 0 ⎟ ⎜ ⎟
⎜ 4 ⎟ ⎜ 0 7 3 5 ⎟
⎜ ⎟ ⎜ 4 2 4 ⎟
⎜ ⎟ ⎜ ⎟
A = L·U =⎜ 1 6 ⎟·⎜ ⎟
⎜ 2 7 1 0 ⎟ ⎜ 12 10 ⎟
⎜ ⎟ ⎜ 0 0 ⎟
⎝ ⎠ ⎜ 7 7 ⎟
1 5 5
⎝ ⎠
4 7 6 1 5
0 0 0 3

Ahora resolver el sistemas Ax = b es equivalente a resolver los sistemas Ly = b y U x = y.


Tenemos que b = (1 1 − 1 − 1)T . Llamando y = (y1 y2 y3 y4 )T , de la forma del sistema
Ly = b, obtenemos que y1 = 1 , y2 = 14 , y3 = − 127 , y y4 = 0. Ahora al resolver el sistema
U x = b obtenemos x4 = 0 , x3 = −1 , x2 = 1 y x1 = 0 .

Problema 3.5 Considere el sistema de ecuaciones lineales Ax = b , donde

⎛ ⎞ ⎛ ⎞
2 −3 8 1 1
⎜ 4 0 1 −10 ⎟ ⎜ 1 ⎟
A=⎜
⎝ 16 4 −2
⎟ y b=⎜
⎠ ⎝

1 1 ⎠
0 7 −1 5 1

a) Usando aritmética exacta y el método de eliminación gaussiana con pivoteo resuelva el


sistema de ecuaciones lineales Ax = b .
b) Denote por B a la matriz P A obtenida en el item anterior Demuestre que el método
iterativo de Jacobi aplicado a la matriz B es convergente. Usando como punto inicial
(0.0377,0.21819,0.20545,-0.06439) y la máxima capacidad de su calculadora, realice itera-
ciones con el método de Jacobi para obtener una solución aproximada del sistema Bx = b .
Use como criterio de parada (xn+1 , yn+1 , zn+1 , wn+1 ) − (xn , yn , zn , wn )  10−5 .

Solución. a) Tenemos que

⎛ ⎞ ⎛ ⎞
2 −3 8 1 1
⎜ 4 0 1 −10 ⎟ ⎜ 1 ⎟
A=⎜
⎝ 16 4 −2
⎟ y b=⎜
⎠ ⎝
⎟.
1 1 ⎠
0 7 −1 5 1
Escribiendo la matrix ampliada del sistema, nos queda

⎛ ⎞
2 −3 8 1 1
⎜ 4 0 1 −10 1 ⎟
A=⎜
⎝ 16 4 −2
⎟,
1 1 ⎠
0 7 −1 5 1
de donde

⎛ ⎞ ⎛ ⎞
8 1
⎜ 10 ⎟ ⎜ 2 ⎟
s=⎜ ⎟ ⎜
⎝ 16 ⎠ y P = ⎝ 3
⎟.

7 4
Sergio Plaza 139

Luego
,
2 4 16
m1 = max , , , 0 = 1 = m31
8 10 16
por lo tanto debemos intercambiar la fila 1 con la fila 3. Realizando este intercambio de filas y
la eliminación gaussiana, nos queda

⎛ ⎞ ⎛ ⎞
16 4 −2 1 1 F2 − 14 F1 16 4 −2 1 1
⎜ 4 0 1 −10 1 ⎟ → ⎜ 0 −1 3/2 −41/4 3/4 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 2 −3 8 1 1 ⎠ ⎝ 0 −7/2 33/4 7/8 7/8 ⎠
0 7 −1 5 1 F3 − 18 F1 0 7 −1 5 1

de donde ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 16 3
⎜ 1/4 ⎟ ⎜ 10 ⎟ ⎜ 2 ⎟
L1 = ⎜ ⎟
⎝ 1/8 ⎠ , s1 = ⎜ ⎟ ⎜
⎝ 8 ⎠ , P1 = ⎝ 1


0 7 4

Para la elección del segundo pivote tenemos


,
1 7 7
m2 = max , , = 1 = m42
10 16 7
por lo tanto debemos intercambiar la fila 2 con la fila 4

⎛ ⎞ ⎛ ⎞
16 4 −2 1 1 F3 − −1
2 F2 16 4 −2 1 1
⎜ 0 7 −1 5 1 ⎟ → ⎜ 0 7 −1 5 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 −7/2 33/4 7/8 7/8 ⎠ ⎝ 0 0 31/4 27/8 11/8 ⎠
0 −1 3/2 −41/4 3/4 F4 − −1
7 F2 0 0 19/14 −227/28 25/28

luego,

⎛ ⎞ ⎛ ⎞ ⎞ ⎛ ⎛ ⎞
1 0 3 16
⎜ 0 ⎟⎟ ⎜ ⎟ ⎜ 4 ⎟ ⎜ 7 ⎟
L11 = ⎜ ⎜ 1 ⎟ , P2 = ⎜ ⎟ , S2 = ⎜ ⎟
⎝ 1/8 ⎠ , L2 = ⎝ −1/2 ⎠ ⎝ 1 ⎠ ⎝ 8 ⎠
1/4 −1/7 2 10

Para la elección del tercer pivote tenemos que


,
31 19 31
m3 = max , = = m33
32 140 32
y obtenemos

⎛ ⎞ ⎛ ⎞
16 4 −2 1 16 4 −2 1 1
⎜ 0 7 −1 5 1 ⎟ → ⎜ 0 7 −1 5 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 31/4 27/8 11/8 ⎠ ⎝ 0 0 31/4 27/8 11/8 ⎠
38
0 0 19/14 −227/28 25/8 F4 − 217 F3 0 0 0 −4395/434 283/434
Sergio Plaza 140

luego,

⎛ ⎞
0
⎜ 0 ⎟
L3 = ⎜



1
38/217

Por lo tanto

⎛ ⎞⎛ ⎞
1 0 0 0 16 4 −2 1
⎜ 0 1 0 0 ⎟ ⎜ 0 7 −1 5 ⎟
P A = LU = ⎜
⎝ 1/8 −1/2
⎟⎜ ⎟ (3.41)
1 0 ⎠⎝ 0 0 31/4 27/8 ⎠
1/4 −1/7 38/217 1 0 0 0 −4395/434

donde

⎛ ⎞
0 0 1 0
⎜ 0 0 0 1 ⎟
P =⎜
⎝ 1
⎟.
0 0 0 ⎠
0 1 0 0

Por lo tanto

⎛ ⎞
16 4 −2 1
⎜ 0 7 −1 5 ⎟
PA = ⎜
⎝ 2 −3 8

1 ⎠
4 0 1 −10

Resolviendo la ecuación se obtiene que

283 301 959


w=− , z= , y= , x = 331/8790 (3.42)
4395 1465 4395

Ahora, como

⎛ ⎞
16 4 −2 1
⎜ 0 7 −1 5 ⎟
B = PA = ⎜
⎝ 2 −3 8

1 ⎠
4 0 1 −10

tenemos que la matriz B es diagonal dominante, por lo tanto el método de Jacobi converge.
Por otra parte, la matriz de Jacobi es dada por
Sergio Plaza 141

J = I − Q−1 B
⎛ ⎞⎛ ⎞
1/16 0 0 0 16 4 −2 1
⎜ 0 1/7 0 0 ⎟⎜ 0 7 −1 5 ⎟
= I4 − ⎜
⎝ 0
⎟⎜
⎠⎝

0 1/8 0 2 −3 8 1 ⎠
0 0 0 −1/10 4 0 1 −10
⎛ ⎞
0 −1/4 1/8 −1/16
⎜ 0 0 1/7 −5/7 ⎟
= ⎜ ⎟
⎝ −1/4 3/8 0 −1/8 ⎠
2/5 0 1/10 0

Para determinar si el método de Jacobi converge determinaremos los valores propios de J .


Tenemos

⎛ ⎞
−λ −1/4 1/8 −1/16
⎜ 0 −λ 1/7 −5/7 ⎟
det(J − λI4 ) = det ⎜ ⎟ = λ4 + 17 λ2 − 219 λ + 33 (3.43)
⎝ −1/4 3/8 −λ −1/8 ⎠ 1120 4480 2240
2/5 0 1/10 −λ

de donde se tiene que los valores propios son

λ1,2 = −0.2483754458 ± 0.3442140503i


(3.44)
λ3,4 = −0.2483754458 ± 0.1416897424i

Por lo tanto, se tiene que el radio espectral es ρ = 0.4244686967 < 1 y el método de Jacobi
es convergente.
Realizando las iteraciones, obtenemos la siguinete tabla

n xn yn zn wn E
0 0.000041875
1 0.037658125 0.2182 0.205445 -0.064375 0.00001725
2 0.0376540625 0.218188571428 0.20545734375 -0.064392640625 0.000014084822
3 0.0376595407368 0.21820265625 0.20545622991 -0.064392640625 0.3961078E-5
4 0.0376559047154 0.218202776148 0.205460190988 -0.0643905607143

Problema 3.6 Para cada n ∈ N , se definen


   
1 2 1
An = y b = .
4 + n12 2 − n12
n
2

Se desea resolver el sistema An x = bn . Un estudiante obtiene como resultado x̃ = (1, 0)T .

1. Se define el vector residual asociado a esta solución como


rn = An x̃ − bn

Calcule rn ¿ Podemos decir que para n grande, la solución es razonablemente confiable?


Justifique
Sergio Plaza 142

2. Resolver An x = bn en forma exacta. Denote por x̄n la solución exacta y cálcule el error
relativo de la aproximación x̃ = (1, 0)T .

3. Lo razonablemente esperado es que x̄n converja a x̃ cuando n tiende a infinito. Para este
ejemplo, ¿ se tiene dicha afirmación?. Calcule K∞ (An ) y explique el resultado obtenido.

Solución. Para cada n ∈ N , un resultado para una solución de An x = bn es x̃ = (1, 0) .

1. El vector residual asociado a esta solución es

rn = An x̃ − bn .

Tenemos

    
1 2 1 1
rn = −
2 4 + n12 0 2 − n12
     
1 1 0
= − =
2 2 − n12 1
n2

Ahora, la solución exacta del sistema es

    
1 2 x 1
=
2 4 + n12 y 2 − n12

esto del par de ecuaciones lineales

x + 2y = 1
 
1 1
2x + 4 + 2 y = 2− .
n n2

De la primera ecuación obtenemos x = 1 − 2y , reemplazando en la segunda ecuación nos


queda

1 1
2 − 4y + 4y + 2
y = 2− 2 ,
n n

1 1
es decir, 2 y = − 2 , de donde y = −1 , por lo tanto x = 3 . Note que la solución es
n n
exactamente la misma para cada n ∈ N , es decir, la solución no depende de n ∈ N .
Por lo tanto la solución dada no es razonablemente confiable, pues no se aproxima en
nada a la solución exacta xT = (3, −1) del sistema An x = bn .

2. Ya calculamos la solución exacta xn de An x = bn , la cual es xn = (3, −1) = xT para


todo n ∈ N .
Sergio Plaza 143

Usando la norma || · ||∞ para simplificar los cálculos.

||xT − x̃||∞
ER (x̃) =
||xT ||∞

||(3, −1) − (1, 0)||∞


=
||(3, −1)||∞

||(2, −1)||∞
=
||(3, −1)||∞

max{|2|, | − 1|}
=
max{|3|, | − 1|}

2
= .
3

3. No, pues xn = (3, −1) = xT es un vector constante y no se aproxima (obviamente) a


x̃ = (1, 0) .
Para calcular k∞ (An ) , tenemos


1
1
||An ||∞ = max{|1| + |2|, |2| +
4 + 2
} = 6 + 2
n n
1 1
Ahora, det(An ) = 4 + − 4 = 2 . Luego
n2 n
⎛ 1 ⎞
4+ −2
1 ⎜ n2 ⎟
A−1
n = 1 ⎝ ⎠
n2
−2 1
⎛ 1 ⎞
4+ −2
⎜ n2 ⎟
= n2 ⎝ ⎠
−2 1
⎛ ⎞
4n2 + 1 −2n2
= ⎝ ⎠
2 2
−2n n
y ||A−1 2 2 2 2 2 2
n ||∞ = max{|14n + 1| + | − 2n | + |n |} = max{6n + 1, 3n } = 6n + 1 . Por lo
tanto
 
1
k∞ (An ) = 6 + 2 (6n2 + 1)
n

1
= 36n2 + 6 + 6 +
n2
1
= 36n2 + 12 + −−−→ ∞,
n→∞
n2
Sergio Plaza 144

lo cual significa que la matriz An está muy mal condicionada para valores grandes de n (es
numéricamente no invertible para n grande), lo cual explica la mala aproximación x̃ de xn para
n grande.

3.15 Ejercicios Propuestos


Problema 3.1 Para resolver un sistema de ecuaciones lineales Ax = b , donde x, b ∈ R2 , se
propone el siguiente método iterativo
x(k+1) = Bx(k) + b , k0
donde  
λ c
B= , λ, c ∈ R
0 −λ

1. ¿Para qué valores de λ y c el método iterativo propuesto es convergente?


2. Sea x̃ el punto fijo de la iteración. Calcule ||x̃ − x(k) ||∞ y ||x(k+1) − x(k) ||∞ cuando
k −→ ∞ ¿Es la convergencia la punto fijo independiente de c ? Justificque.

Problema 3.2 Dado un método iterativo para resolver un sistema de ecuaciones lineales
x(k+1) = Bx(k) + c ,
Si det(B) = 0 ¿Puede el método propuesto ser convergente?

Problema 3.3 Si un método iterativo de punto fijo xn+1 = Axn , donde A ∈ M(n × n, R)
tiene un punto fijo x̄ = 0 . Pruebe que ||A||  1 para cualquier norma ssubordinada en
M(n × n, R) .

Problema 3.4 Dada una matriz


⎛ ⎞
a11 a12 a13
A= ⎝ a21 a22 a23 ⎠
a31 a32 a33
y un vector b ∈ R3 , se quiere resolver el sistema Ax = b . Para ello, se propone el método
iterativo siguiente:
⎛ ⎞−1 ⎛ ⎞ ⎛ ⎞−1
a11 a12 0 0 0 a13 a11 a12 0
x(k+1) = − ⎝ a21 a22 0 ⎠ · ⎝ 0 0 a23 ⎠ x(k) + ⎝ a21 a22 0 ⎠ b
0 0 a33 a31 a32 0 0 0 a33

(a) Pruebe que el método propuesto resulta convergente cuando se aplica a las matriz A y
al vector b siguientes
⎛ ⎞ ⎛ ⎞
8 2 −3 −20
A = ⎝ −3 9 4 ⎠ y b = ⎝ 62 ⎠ .
3 −1 7 0
⎛ ⎞−1 ⎛ ⎞
8 2 0 3/26 −1/39 0
Indicación: Use que ⎝ −3 9 0 ⎠ = ⎝ 1/26 4/39 0 ⎠.
0 0 7 0 0 1/7
Sergio Plaza 145

(b) Considere el vector x(0) = (0 0 0)T . Encuentre el número mı́nimo de iteraciones necesarias
k ∈ N , de modo de tener una precisión ||x(k) − x||∞  10−4 .

(c) Compare el método anterior con el método de Jacobi en cuanto a velocidad de conver-
gencia. Justifique.

Problema 3.5 Encuentre la inversa A−1 de la matriz A , las normas ||A||1 , ||A−1 ||1 , ||A||2 ,
||A−1 ||2 , ||A||∞ , ||A−1 ||∞ y los números de condición κ1 (A) , κ2 (A) y κ∞ (A) si

⎛ ⎞
0 0 1
1. A = ⎝ 0 1 0 ⎠
1 1 1
⎛ ⎞
3 0 0
2. A = ⎝ 0 2 0 ⎠
0 0 1
⎛ ⎞
−2 −1 2 1
⎜ 1 2 1 −2 ⎟
3. A = ⎜
⎝ 2 −1 2

1 ⎠
0 2 0 1

Problema 3.6 Sean A, B ∈ M(n×n, R) , matrices invertibles. Pruebe que κ(AB)  κ(A)κ(B) ,
donde el número de condición es calculado usando cualquier norma subordinada en M(n×n, R) .

Problema 3.7 Sean A, B ∈ M(3 × 3, R) las matrices


⎛ ⎞ ⎛ ⎞
a c 0 0 b 0
A=⎝ c a c ⎠, B=⎝ b 0 b ⎠
0 c a 0 b 0


1. Probar que limn→∞ B n = 0 si y sólo si |b| < 2/2 .

2. Dar condiciones necesarias y suficientes sobre a, c ∈ R para la convergencia de los métodos


de Jacobi y de Gauss–Seidel aplicados a resolver el sistema de ecuacion es lineales Ax = b .

Problema 3.8 Considere el sistema de ecuaciones lineales siguiente



⎨ 3x + y + z = 5
x + 3y − z = 3

3x + y − 5z = −1

1. Explicite el método iterativo de Jacobi para encontrar solución a la ecuación. Justifique


porqué este método converge (sin usar calculadora). Comenzando con (0, 0, 0) , realice 10
iteraciones ¿Cuál es el error absoluto respecto de la solución exacta?

2. Explicite el método iterativo de Gauss–Seidel y justifique la convergencia o no de este


método para la ecuación dada.
Sergio Plaza 146

Problema 3.9 Sean ⎛ ⎞ ⎛ ⎞


1 1 −1 1
A=⎝ 1 2 −2 ⎠ y b=⎝ 2 ⎠
−2 1 1 3

Proponga un método iterativo convergente para resolver Ax = b . La demostración de con-


vergencia debe hacerse sin iterar. Resuelva la ecuación utilizando el método iterativo propuesto.
Use como critero de parada ||(xn+1 , yn+1 , zn+1 ) − (xn , yn , zn )||2  10−3 .

Problema 3.10 Considere el sistema de ecuaciones lineales



⎨ 3x − 2y + z = 1
x − 23 y + 2z = 2

−x + 2y − z = 0

1. Resolver el sistema usando descomposición LU y aritmética exacta.

2. Resolver el sistema usando descomposición LU y aritmética decimal con 4 dı́gitos y


redondeo.

3. Resolver el sistema usando aritmética exacta sin pivoteo.

4. Resolver el sistema usando aritmética decimal con 4 dı́gitos y redondeo, y sin pivoteo.

5. Resolver el sistema usando aritmética exacta con pivoteo.

6. Resolver el sistema usando aritmética decimal con 4 dı́gitos y redondeo, y con pivoteo.

7. ¿cuál es su conclusión?

Problema 3.11 1. Obtener la descomposición LU para matrices tridiagonales.

2. Describir el proceso de eliminación gaussiana sin pivoteo para resolver un sistema con
matriz tridiagonal.

3. Suponiendo que tenemos una matriz tridiagonal no singular. Explicitar los algoritmos
iterativos de Richardson, Jacobi, y Gauss–Seidel.

4. Ilustre todo lo anterior con el sistema


⎛ ⎞⎛ ⎞ ⎛ ⎞
3 1 0 x −1
⎝ 1 3 1 ⎠⎝ y ⎠ = ⎝ 4 ⎠
0 1 3 z 10

Problema 3.12 Considere los siguientes sistemas de ecuaciones lineales


⎛ ⎞⎛ ⎞ ⎛ ⎞
3 −2 1 x 1
⎝ 1 −2 2 ⎠⎝ y ⎠=⎝ 2 ⎠ (3.45)
3
−1 2 −1 z 0

⎛ ⎞⎛ ⎞ ⎛ ⎞
0 1 0 x 8
⎝ 0 2 1 ⎠⎝ y ⎠ = ⎝ 7 ⎠ (3.46)
2 3 1 z −5
Sergio Plaza 147

⎛ ⎞⎛ ⎞ ⎛ ⎞
3 1 1 x 5
⎝ 1 3 −1 ⎠ ⎝ y ⎠ = ⎝ 3 ⎠ (3.47)
3 1 −5 z −1

1. Estudie la convergencia de los métodos iterativos de Richardson, Jacobi, Gauss–Seidel y


de SOR para cada uno de ellos.

2. Caso algunos de los métodos anteriores sea convergente, encontrar la solución del sis-
tema, con precisión ε = 10−3 y usando como criterio de parada ||(xn+1 , yn+1 , zn+1 ) −
(xn , yn , zn )||∞  ε , comenzando con (x0 , y0 , z0 ) = (0, 0, 0) .

Problema 3.13 Considere el sistema de ecuaciones lineales


    
−10−5 1 x 1
=
2 1 y 0

1. Resuelva el sistema usando eliminación gaussiana sin pivoteo y con aritmética de redondeo
a 4 dı́gitos.

2. Resuelva el sistema usando eliminación gaussiana con pivoteo y con aritmética de redondeo
a 4 dı́gitos.

3. Cuál de las soluciones obtenidas en a) y b) es la más aceptable?

4. Calcule el número de condición para la matriz en el sistema inicial y para la matriz del
sistema despues de hacer pivoteo Cuál es su conclusión?

Problema 3.14 Dado el sistema lineal de ecuaciones estructurado


⎛ ⎞
a11 a12 ... a1n−1 a1 n
⎜ ⎟
⎜ 0 a22 ... a2n−1 a2 n ⎟⎛ ⎞ ⎛ ⎞
⎜ .. .. .. ⎟ x1 b1
⎜ .. ⎟
⎜ 0 0 . . . . ⎟⎜ x2 ⎟ ⎜ b2 ⎟
⎜ .. .. ⎟⎜ ⎟ ⎜ ⎟
⎜ ⎟⎜ .. ⎟=⎜ .. ⎟
⎜ . . ⎟⎝ . ⎠ ⎝ . ⎠
⎜ ⎟
⎜ 0 ... 0 an−2 n−2 an−2 n−1 an−2 n ⎟
⎜ ⎟ xn bn
⎝ an−1 1 an−1 2 . . . an−1 n−2 an−1 n−1 an−1 n ⎠
an 1 an 2 ... an n−2 an n−1 an n

a) Diseñe un algoritmo basado en el método de eliminación gaussiana que permita resolver


dicho sistema adaptado a la estructura particular de este, sin hacer ceros donde ya existen.

b) Realice un conteo de las operaciones (multiplicación, división, suma y resta) involucrados


sólo en la triangulación del sistema en el algoritmo de la parte a).
Sergio Plaza 148

Problema 3.15 Dado el sistema lineal Ax = h con


⎛ ⎞
a1 c1 0 0 0 0 ··· 0 0 0
⎜ b2 a2 c2 0 0 0 ··· 0 0 0 ⎟
⎜ ⎟
⎜ 0 b3 a3 c3 0 0 ··· 0 0 0 ⎟
⎜ ⎟
⎜ 0 ··· ⎟
⎜ 0 b4 a4 c4 0 0 0 0 ⎟
⎜ ⎟
A=⎜ ⎜ .
⎟,

⎜ . .. .. .. .. .. .. .. .. .. ⎟
⎜ . . . . . . . . . . ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 0 0 0 ··· bn−1 an−1 cn−1 ⎠
0 0 f3 f4 ··· fn−2 bn an

y h ∈ Rn un vector columna.
Diseñe un algoritmo en pseudo lenguaje basado en el método de eliminación gaussiana, sin
elección de pivote, que utilice el mı́nimo número de localizaciones de memoria, realice el mı́nimo
número de operaciones (es decir, que obvı́e los elementos nulos de la matriz A (sin hacer ceros
donde ya existen)) para resolver el sistema Ax = h .

Problema 3.16 Resuelva mediante el método de eliminación gaussiana con aritmética exacta
el sistema

5x1 − x2 = 4
−x1 + 5x2 − x3 = −2
− x2 + 5x3 = 1

Problema 3.17 Dado el sistema lineal



x = 0.9x + y + 17
y = 0.9y − 13

1. Proponga un método iterativo convergente (en R2 ). La demostración de convergencia


debe hacerse sin iterar.

2. Resuelva el sistema por su método propuesto, con aritmética decimal de redondeo a 3


dı́gitos y con una precisión de 10−3 en la norma || ||∞ , eligiendo como punto de partida
(0, 0) . (el redondeo debe hacerse en cada operación).

3. Analice la convergencia del método de Jacobi y del método de Gauss–Seidel. Sin iterar.

Problema 3.18 Dado el sistema lineal



⎨ 3x + y + z = 5
3x + y − 5z = −1

x + 3y − z = 1

1. Resuelva el sistema usando eliminación gaussiana, con o sin pivoteo, con aritmética deci-
mal de redondeo a 3 dı́gitos. (el redondeo debe hacerse en cada operación).

2. Analice la convergencia del método de Jacobi, sin iterar.


Sergio Plaza 149

3. Analice la convergencia del método de Gauss–Seidel, sin iterar.

Problema 3.19 Considere el sistema de ecuaciones lineal


⎛ 1 1 ⎞
1
⎜ 2 3 ⎟
⎜ ⎟⎛ ⎞ ⎛ ⎞
⎜ ⎟ x 1
⎜ 1 ⎟
1 ⎟⎝
⎜ 1 y ⎠=⎝ 2 ⎠.
⎜ 2 6 ⎟
⎜ ⎟
⎜ ⎟ z 3
⎝ ⎠
1 1
1
3 6
1. Resuelva el sistema por el método de eliminación de Gauss (sin elección de pivote) re-
dondeando cada operación a 4 dı́gitos en la mantisa.

2. Resuelva el sistema por el método de Jacobi redondeando cada operación a 4 dı́gitos en


la mantisa, y con una presición de 10−3 , comenzando con x0 = y0 = z0 = 0 .

3. En este caso particular ¿Cuál de los dos métodos es más conveniente? Justifique.

Problema 3.20 Resuelva el sistema Ax = b , donde


⎛ ⎞ ⎛ ⎞
−3 2 3 −1 1
⎜ 6 −2 −6 0 ⎟ ⎜ 2 ⎟
A=⎜ ⎝ −9 4
⎟ y b=⎜ ⎟
10 3 ⎠ ⎝ 3 ⎠
12 −4 −13 −5 4

usando descomposición LU con pivoteo.

Problema 3.21 Considere la matriz


 
0.0001 1
A=
1 1

1. Trabajando con aritmética decimal de tres dı́gitos y redondeo ¿Es posible encontrar una
descomposición LU para A ?

2. Considere ahora aritmética decimal de cinco dı́gitos y redondeo. Encuentre una des-
composición LU para A , y compare los números de condición de A y de LU ¿Cuál es
su conclusión?

3. Ahora considere la matriz  


1 1
A=
0.0001 1
Es posible ahora encontrar una descomposición LU , con aritmética decimal de redondeo
a tres dı́gitos para A ?

Problema 3.22 Considere el siguiente sistema de ecuaciones lineales


⎛ ⎞⎛ ⎞ ⎛ ⎞
10 −3 6 x 25
⎝ 1 −8 −2 ⎠ ⎝ y ⎠ = ⎝ −9 ⎠
−2 4 9 z −50
Sergio Plaza 150

1. Resuelva el sistema usando descomposición LU de Doolittle.

2. Cuáles de los métodos iterativos: Richardson, Jacobi, Gauss–Seidel convergen?

3. Use un método iterativo convergente para encontrar la solución del sistema con una pre-
cisión de ε = 10−3 , con criterio de parada ||(xn , yn , zn ) − (xT , yT , zT )||∞  ε , donde
(xT , yT , zT ) es la solución exacta del sistema.

Problema 3.23 Considere la matriz


⎛ ⎞
4 −1 −1
A = ⎝ −1 4 1 ⎠
−1 1 4

a) Demuestre que existe la descomposión de Cholesky (sin calcularla) de A .

b) Determine la descompisición de Cholesky de A .

Problema 3.24 a) Demuestre que la matriz


⎛ ⎞
0 1 0
A=⎝ 0 2 1 ⎠
2 3 1

no tiene descomposición LU .

b) Realice pivoteo en la matriz A y demuestre que la matriz resultante tiene descomposición


LU .

Problema 3.25 Considere la matriz


⎛ ⎞
2 1 0
A=⎝ 0 3 2 ⎠
1 2 4

1. Usando aritmética exacta, encuentre una descomposición A = LU , donde L es triangular


inferior con “unos” en la diagonal.

2. Usando la descomposición LU obtenida en a), encuentre la solución del sistema (usando


aritmética exacta) Ax = b , con bT = (5, −3, 8) .

3. Proponga un método de punto fijo y demuestre la convergencia (sin iterar) para resolver
el sistema dado en b), y encuentre una solución aproximada con una presición de 10−3 .

Problema 3.26 Consideremos el problema de calcular la temperatura de una barra metálica


de largo L , cuyos extremos se mantienen a temperaturas constantes T0 y TL conocidas. La
ecuación diferencial que gobierna este fenómeno es conocida como ecuación de conducción del
calor, la cual, en régimen estacionario está dada por

−kT  (x) = f (x) 0 < x < L, (3.48)


Sergio Plaza 151

donde f (x) es una función conocida, que representa una fuente de calor externa y k > 0 es
una constante que se denomina coeficiente de difusión o conductividad térmica. A esta ecuación
se le agregan las condiciones de borde:

T (0) = T0 , T (L) = TL . (3.49)

Una de las técnicas más usadas para resolver el problema 3.48-3.49 es el método de diferencias
finitas. En este método, el intervalo [0, L] se divide en N + 1 intervalos de largo h = NL+1 y
la solución es buscada en los puntos internos definidos por esta división, es decir, en los puntos
xn = nh , con n = 1, . . . , N (los valores de la temperatura en los nodos del borde x0 = 0 y
xN +1 = L son conocidos). En este método, las derivadas de primer orden se aproximan por el
cuociente de diferencias finitas

f (x + h) − f (x)
f  (x) ≈ ,
h
mientras que las derivadas de segundo orden, se aproximan por

f (x − h) − 2f (x) + f (x + h)
f  (x) ≈ . (3.50)
h2
Denotemos por Tn los valores aproximados de la evaluaciones de la temperatura exacta en los
puntos de la malla, T (xn ) . Reemplazando −T  (x) en la ecuación 3.48 por la expresión 3.50,
y evaluando la ecuación en los nodos internos de la malla {x1 , . . . , xN } , se obtiene el siguiente
sistema de ecuaciones lineales:

2T1 − T2 = h2 f (x1 ) + T0 , (3.51)


2
−Tj−1 + 2Tj − Tj+1 = h f (xj ), j = 2, . . . , N − 1; (3.52)
2
2TN −1 + 2TN = h f (xN ) + TL , (3.53)

que matricialmente puede ser escrito como


⎛ ⎞⎛ ⎞ ⎛ ⎞ ⎛ ⎞
2 −1 0 ··· 0 T1 f (x1 ) T0
⎜ −1 2 0 ⎟
⎜ −1 · · · ⎟⎜⎜ T2 ⎟


⎜ f (x2 ) ⎟ ⎜
⎟ ⎜ 0 ⎟

⎜ .. ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ .. .. ⎟ ⎜ .. ⎟ = h2 ⎜ .. ⎟+⎜ .. ⎟
⎜ 0 −1 . . . ⎟⎜ . ⎟ ⎜ . ⎟ ⎜ . ⎟ (3.54)
⎜ . ⎟⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ . .. .. ⎟⎝ T ⎠ ⎝ f (xN −1 ) ⎠ ⎝ 0 ⎠
⎝ . . . 2 −1 ⎠ N −1

0 ··· 0 −1 2 T N f (xN ) TL

Denotemos por A la matriz y por Fh el lado derecho de este sistema.


Tomando como parámetros del problema los valores
π 2
k = 1, L = 1, f (x) = 37 2 sin( π2 x),
(3.55)
T0 = 0, TL = 37,

se pide resolver numéricamente el sistema 3.54, usando los métodos iterativos de Jacobi, Gauss-
Seidel y SOR. Para el método SOR tome distintos valores del parámetro de aceleración ω ∈
(1, 2) . Calcule además el parámetro de aceleración óptimo ω ∗ .
Para ello, siga los siguientes pasos:

1. Compruebe que la matriz A es definida positiva.


Sergio Plaza 152

2. Implemente cada uno de los 3 métodos antes mencionados y haga un estudio comparativo
de estos para distintos valores de N . Por ejemplo, N = 50, 100, 200, 1000. Especifique
el criterio de parada utilizado y el número de iteraciones para cada uno de los métodos y
para los distintos valores de N . Presente sus resultados en una tabla.

3. Finalmente, determine la solución analı́tica del problema 3.48-3.49, con los parámetros
dados por 3.55 y grafique el error absoluto en la solución, para cada uno de los métodos
y para los distintos valores de N . A partir de estos gráficos, comente cual de los tres
métodos aproxima mejor a la solución .

Problema 3.27 Demuestre que la matriz no singular


⎛ ⎞
0 0 1
A=⎝ 1 0 0 ⎠
0 1 0

no tiene descomposición LU , pero la matriz A − I si tiene descomposición LU . Dar una


matriz de permutación P de modo que P A tiene descomposición LU .

Problema 3.28 Sea a > 0 una constante. Se tiene la siguiente matriz


⎛ 2 3 ⎞
2a 0 a
⎜ 3 ⎟
⎜ ⎟
⎜ ⎟
⎜ 2 3 ⎟
A=⎜ ⎜ 0 a 0 ⎟⎟
⎜ 3 ⎟
⎜ ⎟
⎝ ⎠
2 3 2 5
a 0 5 a
3

(a) Demuestre que A tiene descomposición de Cholesky y usela para calcular A−1 .

(b) calcule el número de condición de la matriz A , en términos de A y determine cuando


ella está bien condicionada.

(c) Si b = (0 − 1 1)T . Usando la descomposición anterior resuelva el sistema de ecuaciones


lineales Ax = b .

Problema 3.29

Problema 3.30

Problema 3.31
Capı́tulo 4

Interpolación

Supongamos que tenemos una función f : [a, b] −→ R y queremos aproximarla por funciones
más simples. Más general, nos son dados los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) donde los
puntos xi ( i = 0, . . . , n ) son distintos y estan sobre el eje x , los cuales suponemos ordenados
por x0 < x1 < · · · < xn , y los puntos yi (i = 0, 1, . . . , n) son tales que yi = f (xi ) para alguna
función desconocida f (x) con la cual deseamos hacer algunos cálculos. Podemos aproximar
f (x) por funciones simples, y hacer los cálculos con estas aproximaciones, por ejemplo, cálculo
de integrales (áreas) y de derivadas.

4.1 Interpolación de Lagrange


Comenzamos aproximando los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) , con x0 < x1 < · · · < xn ,
por funciones polinomiales a trozo o por funciones polinomiales.

4.1.1 Aproximación lineal por trozo o de grado 1

Dados los puntos (x0 , y0 ) y (x1 , y1 ) , con x0 < x1 , tales que y0 = f (x0 ) y x1 = f (x1 ) ,
podemos aproximar f (x) en el intervalo [x0 , x1 ] por la más simple de las funciones, es decir,
afı́n . Para ello consideramos el segmento de recta que une los puntos (x0 , y0 ) y (x1 , y1 ) .
Tenemos entonces que la aproximación es dada por

x − x1 x − x0
L1 (x) = y0 + y1 . (4.1)
x0 − x1 x1 − x0

Además, el error viene expresado como

f  (ξ(x))
Error = f (x) − L1 (x) = (x − x0 )(x − x1 ) , (4.2)
2!

donde ξ(x) ∈ [x0 , x1 ] .

153
Sergio Plaza 154
f (x)

• y1

L1 (x)

y0 •

• •
x0 x1

Para obtener la expresión de L1 (x) , escribimos

L1 (x) = a0 + a1 x . (4.3)

Usando las condiciones L1 (x0 ) = y0 y L1 (x1 ) = y1 , obtenemos el siguiente sistema de


ecuaciones lineales

L1 (x0 ) = a0 + a1 x0 = y0
L1 (x1 ) = a0 + a1 x1 = y1 (4.4)

o en forma matricial     
1 x0 a0 y0
=
1 x1 a1 y1
cuya solución es
1 −1
a0 = y0 + y1
x1 − x0 x1 − x0

−1 1
a1 = y0 + y1
x1 − x0 x1 − x0

Reemplazando estos valores en la expresión para L1 (x) dada en (4.3), obtenemos la fórmula
(4.1).

Si queremos aproximar f (x) en todo el intervalo [a, b] , consideramos una partición de [a, b] ,
digamos x0 = a < x1 < x2 < · · · < xn = b , y en cada subintervalo [xi , xi+1 ] tomamos una
aproximación como la anterior. Para el error total sólo basta sumar los errores cometidos en
cada aproximación. Esta es llamada aproximación lineal por trozos de f (x) .
Usando este tipo de aproximación tenemos, por ejemplo,

 
x1 x1
x1 − x0
f (x) ≈ L1 (x)dx = (y1 + y0 ) , (4.5)
x0 x0 2

es decir,

 
x1 x1
x1 − x0
f (x)dx ≈ L1 (x)dx = (f (x0 ) + f (x1 )) , (4.6)
x0 x0 2

esta es llamada regla del trapecio para el cálculo integral.


Sergio Plaza 155
f (x)

• y1
Error
L1 (x)

y0 • Area del trapecio

• •
x0 x1

Para el error cometido en el cálculo de la integral usando esta aproximación, tenemos que

 
x1
f  (ξ(x)) f  (c) x1
(x − x0 )(x − x1 )dx = (x − x0 )(x − x1 )
x0 2! 2 x0
 

f  (c) x3 x0 + x1 2
x1
= − x + x0 x1 x

2 3 2 x0
 3
f (c) −h
= ·
2 6
3
h 
= − f (c)
12

para algún c en [x0 , x1 ] , donde h = x1 − x0 . Por lo tanto,

 x1
h h3
f (x)dx = (f (x0 ) + f (x1 )) − f  (c) . (4.7)
x0 2 12

De (4.7) tenemos una cota para el error cometido en el cálculo de la integral, dado por




x1
h
h3

f (x)dx − (f (x0 ) + f (x1 ))

 max{ |f  (x)| : x ∈ [x0 , x1 ]} . (4.8)



2 12
x0

En general, usando la partición a = x0 < x1 < · · · < xn = b del intervalo [a, b] , con paso
constante h = xi+1 − xi , tenemos la fórmula de los trapecios compuesta
 b
h
f (x) ≈ (f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )) . (4.9)
a 2

El error de esta aproximación lo estudiaremos en el Capı́tulo 8

4.2 Polinomio de Lagrange de grado n


Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < · · · < xn = b y
f : [a, b] −→ R una función n + 1 veces derivable con f (n+1) (x) continua. Sean yi = f (xi ) ,
i = 0, 1, . . . , n . Entonces existe un único polinomio Ln (x) de grado menor o igual que n tal
que
f (xk ) = Ln (xk ) , k = 0, 1, . . . , n . (4.10)
yn−1

Sergio Plaza yn−2 156

y1

y2 f (x)

y0 yn

x0 x1 x2 xn−2 xn−1 xn

Este polinomio es dado por

-
n
Ln (x) = f (xk )Ln,k (x) , (4.11)
k=0

donde

(x − x0 ) · · · (x − xk−1 )(x − xk+1 ) · · · (x − xn )


Ln,k (x) =
(xk − x0 ) · · · (xk − xk−1 )(xk − xk+1 ) · · · (xk − xn )

4
n
(x − xi )
= . (4.12)
i =0
(xk − xi )
i = k

Además, se tiene que

f (n+1) (ξ(x))
Error = f (x) − Ln (x) = (x − x0 ) · · · (x − xn ) (4.13)
(n + 1)!

donde ξ(x) ∈ [x0 , xn ] .


La siguiente figura ilustra L2 (x) ,

f (x)
y1

• y2

L2 (x)

y0 •

• •
x0 x1 x2

Para encontrar la fórmula (4.11), escribimos

Ln (x) = a0 + a1 x + a2 x2 + · · · + an xn (4.14)
Sergio Plaza 157

e imponemos las condiciones Ln (xj ) = yj para j = 0, 1, . . . , n . Esto da origen al siguiente


sistema de n + 1 ecuaciones con n + 1 incognitas

⎪ Ln (x0 ) = a0 + a1 x0 + a2 x20 + · · · + an xn0 = y0


⎨ Ln (x1 ) = a0 + a1 x1 + a2 x21 + · · · + an xn1 = y1
.. (4.15)

⎪ .


Ln (xn ) = a0 + a1 xn + a2 x2n + · · · + an xnn = yn

o en forma matricial

⎛ ⎞⎛ ⎞ ⎛ ⎞
1 x0 x20 ··· xn0 a0 y0
⎜ 1 x1 x21 ··· xn1 ⎟⎜ a2 ⎟ ⎜ y1 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. .. ⎟⎜ .. ⎟=⎜ .. ⎟ (4.16)
⎝ . . . . . ⎠⎝ . ⎠ ⎝ . ⎠
1 xn x2n ··· xnn an yn

el cual se resuelve usando la regla de Cramer, y se obtiene la fórmula (4.12) para los coeficientes
del polinomio de Lagrange.
Aplicando esta aproximación para el cálculo integral, tenemos

 xn  xn
f (x)dx ≈ Ln (x)dx
x0 x0

 xn  xn -
n
Ln (x)dx = f (xi )Ln,i (x)dx
x0 x0 i=0
-
n  xn
= f (xi ) Ln,i (x)dx
i=0 x0

luego,


 




xn xn

xn 4n


f (x)dx − Ln (x)dx

=
f (n+1) (ξ(x)) (x − xi )dx

x0 x0 (n + 1)! x0

i=0
 xn



4 n

1
(n+1)


f (ξ(x))

(x − xi )
dx
(n + 1)! x0

i=0


|f (n+1) (c)| xn

=
(x − xi )
dx
(n + 1)! x0
i=0

(n+1) ,  xn

4 n

|f (x)|

 max : x ∈ [x0 , xn ]
(x − xi )
dx
(n + 1)! x0

i=0
nh
 K1 · K2 ,
(n + 1)!
Sergio Plaza 158

'

( ;n
donde K1 = max
f (n+1) (x)
: x ∈ [x0 , xn ] y K2 = max {| i=0 (x − xi )| : x ∈ [x0 , xn ]} ,
esto es,
 xn  xn


f (x)dx − L (x)dx
 nh K1 · K2 . (4.17)

n
(n + 1)!
x0 x0

4.3 Regla de Simpson


b−a
Sean x0 = a , x2 = b y x1 = a + h , donde h = . Si usamos L2 (x) para aproximar f ,
2
tenemos

(x − x1 )(x − x2 ) (x − x0 )(x − x2 ) (x − x0 )(x − x1 )


L2 (x) = f (x0 ) + f (x1 ) + f (x2 ) ,
(x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) (x2 − x0 )(x2 − x1 )

donde el resto (error) viene dado por

(x − x0 )(x − x1 )(x − x2 ) (3)


R(x) = f (ξ(x)) ,
6
con ξ(x) ∈ [a, b] .
Luego

   x2
b
(x − x1 )(x − x2 )
x2
(x − x0 )(x − x2 )
f (x)dx = f (x0 ) dx + f (x1 ) dx
a x0 (x0 − x1 )(x0 − x2 ) x0 (x1 − x0 )(x1 − x2 )
 x2  x2
(x − x0 )(x − x1 ) (x − x0 )(x − x1 )(x − x2 ) (3)
+f (x2 ) dx + f (ξ(x))dx
x0 (x2 − x 0 )(x2 − x1 ) x0 6

Tenemos h = x2 − x1 = x1 − x0 y x2 − x0 = (x2 − x1 ) + (x1 − x0 ) = 2h .

Ejercicio. Desarrollar el cálculo de las integrales y obtener la regla de Simpson.

Una forma alternativa para obtener la regla de Simpson es la siguiente. Desarrollamos f (x)
en serie de Taylor hasta orden 4 alrededor del punto x1 en el intervalo [x0 , x2 ] . Tenemos,
x1 = x0 + h , luego
f  (x1 ) f  (x1 ) f (4) (ξ(x))
f (x) = f (x1 ) + f  (x1 )(x − x1 ) + (x − x1 )2 + (x − x1 )3 + (x − x1 )4 ,
2 6 24
con ξ(x) ∈ [x0 , x2 ] .
Integrando, obtenemos

 
x2
f  (x1 )
f (x)dx = f (x1 )(x2 − x0 ) + (x − x1 )2
x0 2

x2
f  (x1 ) 3 f  (x1 ) 4

+ (x − x1 ) + (x − x1 )

6 24 x0
 x2
1
+ f (4) (ξ(x))(x − x1 )4 dx .
24 x0
Sergio Plaza 159

Como (x − x1 )4  0 , podemos usar el teorema valor medio para integrales, y tenemos

 
1 x2
(4) 4 f (4) (c) x2
f (ξ(x))(x − x1 ) dx = (x − x1 )4 dx
24 x0 24 x0

x2
1 (4)

= f (c)(x − x1 )5

, c ∈]x0 , x2 [ .
120 x0

Ahora, usando que h = x1 − x0 = x2 − x1 , tenemos

(x2 − x1 )2 − (x0 − x1 )2 = (x2 − x1 )4 − (x0 − x1 )4 = 0


(x2 − x1 )3 − (x0 − x1 )3 = 2h3
(x2 − x1 )5 − (x0 − x1 )4 = 2h5 .

Luego
 x2
h3  f (4) (c) 5
f (x)dx = 2hf (x1 ) + f (x1 ) + h . (4.18)
x0 3 60

Usando desarrollos de Taylor, tenemos


1 1  1 (4)
f (x + h) = f (x) + f  (x)h + f  (x)h2 + f (x)h3 + f (ξ1 )h4 (4.19)
2 6 24
1  1  1 (4)
f (x − h) = f (x) − f (x)h + f (x)h2 −

f (x)h3 + f (ξ2 )h4 , (4.20)
2 6 24

donde x − h < ξ2 < x < ξ1 < x + h . Sumando estas dos igualdades, obtenemos

1 (4)
f (x + h) + f (x − h) = 2f (x) + f  (x)h2 + (f (ξ1 ) + f (4) (ξ2 ))h4 (4.21)
24

y resolviendo para f  (x) nos queda

1 h2 (4)
f  (x) = (f (x − h) − 2f (x) + f (x + h)) − (f (ξ1 ) + f (4) (ξ1 )) . (4.22)
h2 24

Si f (4) (x) es continua en [x − h, x + h] , usando el teorema del valor medio obtenemos

f (4) (ξ1 ) + f (4) (ξ2 )


= f (4) (ξ) , (4.23)
2

para algún ξ ∈ [x − h, x + h] .
Luego

1 h2 (4)
f  (x) = (f (x − h) − 2f (x) + f (x + h)) − f (ξ) . (4.24)
h2 12
Sergio Plaza 160

Usando (4.24) en la fórmula (4.18) de la integral, tenemos

1 h2 (4)
f  (x1 ) = (f (x1 − h) − 2f (x1 ) + f (x1 + h)) − f (ξ) . (4.25)
h2 12
Como x1 − h = x0 y x1 + h = x2 , obtenemos que

1 h2 (4)
f  (x1 ) = (f (x0 ) − 2f (x1 ) + f (x2 )) − f (ξ(x))
h2 12

y (4.18) se transforma en

  
x2
h3 1 h2 (4) f (4) (c) 5
f (x)dx = 2hf (x1 ) + (f (x0 ) − 2f (x1 ) + f (x2 )) − f (ξ) + h
x0 3 h2 12 60
h h5 f (4) (c) 5
= 2hf (x1 ) + (f (x0 ) − 2f (x1 ) + f (x2 )) − f (4) (ξ) + h
3  36  60
h h5 1 (4) 1
= (f (x0 ) + 4f (x1 ) + f (x2 )) − f (ξ) − f (4) (c)
3 12 3 5
h h5 f (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) − ·2· (θ)
3 12 15
h h5 (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) − f (θ) .
3 90
En resumen,
Regla de Simpson simple . Si x1 = x0 + h y x2 = x1 + h , entonces
 x2
h h5
f (x)dx = (f (x0 ) + 4f (x1 ) + f (x2 )) − f (4) (θ) , (4.26)
x0 3 90
de donde


x2
h
h5

f (x)dx − (f (x0 ) + 4f (x1 ) + f (x2 ))

 max{|f (4) (x)| : x ∈ [x0 , x2 ] } . (4.27)



3 90
x0

esta fórmula es llamada regla de Simpson simple.


Más general, si usamos puntos x0 < x1 < x2 < x3 < x4 < · · · < x2n−2 < x2n−1 < x2n
c b c
y haciendo uso de la propiedad a f (x) = dx = a f (x)dx + b f (x)dx para a < b < c , se
obtenemos

 x2n  x2  x4  x2n
f (x)dx = f (x)dx + f (x)dx + · · · + f (x)dx
x0 x0 x2 x2n−2

h
= (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + · · · + 2f (x2n−2 ) + 4f (x2n−1 ) + f (x2n )) ,
3
esto es,
 x2n
h
f (x)dx = (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + · · · + 2f (x2n−2 ) + 4f (x2n−1 ) + f (x2n ))
x0 3
(4.28)
Sergio Plaza 161

esta es fórmula de integración numérica es llamada regla de Simpson compuesta. El error total
es obtenido sumando los errores en cada parcela del cálculo. En el Capı́tulo 8 analizarenos este
error.
La regla de los trapecios (simple y compuesta) y la regla de Simpson (simple y compuesta)
forma parte de una serie de fórmulas para el cálculo aproximado de integrales, llamadas fórmulas
de Newton–Cote, que serán estudiadas en el Capı́tulo 8.

4.4 Método de las diferencias divididas


Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < · · · < xn = b y
f : [a, b] −→ R una función n + 1 veces derivable con f (n+1) (x) continua. Sean yi = f (xi ) ,
i = 0, 1, . . . , n . Tenemos el polinomio de Lagrange Ln (x) interpolando esos puntos. Ahora,
queremos escribir Ln (x) en una forma más sencilla, digamos como,

Ln (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + · · · + an (x − x0 ) · · · (x − xn−1 ) (4.29)

El problema que tenemos es determinar los coeficientes a0 , . . . , an .


Evaluando, tenemos que

Ln (x0 ) = f (x0 ) = a0 ,

Ln (x1 ) = f (x1 ) = f (x0 ) + a1 (x1 − x0 ) ,

de donde

f (x1 ) − f (x0 )
a1 = .
x1 − x0

Antes de continuar evaluando, introduzcamos la siguiente notación

f [xi ] = f (xi ) (4.30)


f [xi+1 ] − f [xi ]
f [xi , xi+1 ] = (4.31)
xi+1 − xi

Ası́, si tenemos definidas f [xi , xi+1 , . . . , xi+k−1 ] y f [xi+1 , . . . , xi+k ] , podemos definir la
k–ésima diferencia dividida relativa a xi , xi+1 , . . . , xi+k por

f [xi+1 , . . . , xi+k ] − f [xi , . . . , xi+k−1 ]


f [xi , xi+1 , . . . , xi+k ] = . (4.32)
xi+k − xi

Ahora un cálculo directo, nos da que ak = f [x0 , x1 , . . . , xk ] , ası́ podemos escribir


Sergio Plaza 162

-
n
Ln (x) = f [x0 ] + f [x0 , . . . , xk ](x − x0 ) · · · (x − xk−1 ) . (4.33)
k=1

La siguiente tabla muestra como se van generando las sucesivas diferencias divididas
x0 f [x0 ]

f [x1 ] − f [x0 ]
f [x0 , x1 ] =
x1 − x0


f [x1 , x2 ] − f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ] =
x2 − x0


f [x2 ] − f [x1 ]
f [x1 , x2 ] =
x2 − x1


x2 f [x2 ]
..
.

Veamos en forma más detallada la definición, el cálculo y la interpretación geométrica de de


las diferencias divididas.

Sea f : R −→ R una función, la cual suponemos derivable tantas veces cuanto sea necesario.
Dados x0 y x1 , como vimos, el cuociente
f (x1 ) − f (x0 )
f [x0 , x1 ] =
x1 − x0
es la diferencia dividida de primer orden de f (x) . La diferencia dividida de primer orden
f [x0 , x1 ] es la pendiente de la linea secante al gráfico de y = f (x) uniendo los puntos
(x0 , f (x0 )) y (x1 , f (x1 )) .

(x1, f(x1) )

(x0, f (x0) )
y = f(x)
Sergio Plaza 163

Por ejemplo, si f (x) = sen(x) , x0 = 1.2 y x1 = 1.3 entonces

sen(1.3) − sen(1.2)
f [x0 , x1 ] = = 0.3151909944 .
1.3 − 1.2
Las diferencias divididas de primer orden pueden ser pensadas como siendo un análogo
numérico de la derivada de f (x) .
Si f (x) es una función diferenciable y si x0 y x1 son próximos, entonces
 
 x0 + x1
f ≈ f [x0 , x1 ] , (4.34)
2

esto es, la pendiente de la linea secante uniendo los puntos (x0 , f (x0 )) y (x1 , f (x1 )) sobre
el gráfico de y = f (x) es aproximadamente igual a la pendiente de la linea tangente en el
punto medio del intervalo desde x0 a x1 . Además, desde la definición de f [x0 , x1 ] , haciendo
x1 → x0 , obtenemos

f  (x0 ) = lim f [x0 , x1 ] = f [x0 , x0 ]


def
(4.35)
x1 →x0

En el ejemplo anterior f (x) = sen(x) , x0 = 1.2 , x1 = 1.3 y f  (x) = cos(x) , luego



f  x0 +x
2
1
= cos 1.2+1.3
2 = 0.3153223624 , que es aproximadamente igual a f [x0 , x1 ] =
0.3153223624

Como vimos las diferencias divididas de orden superior son definidas recursivamente en
término de las diferencias divididas de orden menor.
Dados x0 , x1 y x2 distintos (usualmente tomados en orden creciente), la diferencia dividida
de segundo orden de f (x) en esos tres puntos es

f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1 , x2 ] = .
x2 − x0

Si x0 , x1 , x2 y x3 son 4 números reales distintos (usualmente tomados en orden creciente),


la diferencia dividida de tercer orden de f (x) en esos cuatro puntos es

f [x1 , x2 , x3 ] − f [x0 , x1 , x2 ]
f [x0 , x1 , x2 , x3 ] = .
x3 − x0

En general, si x0 , x1 , . . . , xn son n + 1 números distintos (usualmente tomados en orden


creciente), la diferencia dividida de orden n de f (x) en esos puntos es
f [x1 , . . . , xn ] − f [x0 , . . . , xn−1 ]
f [x0 , x1 , x2 , . . . , xn ] = .
xn − x0

Observación. Existe una relación entre una diferencia dividida de orden n y la derivada de
orden n de la función.

Por ejemplo, si f (x) = sen(x) , x0 = 1.2 , x1 = 1.21 , y x2 = 1.22 , entonces

sen(1.21) − sen(1.2)
f [x0 , x1 ] = = 0.315190994 .
1.21 − 1.2
Sergio Plaza 164

sen(1.22) − sen(1.21)
f [x1 , x2 ] = = 0.34833547,
1.22 − 1.21

f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1 , x2 ] = = −0.46780450.
1.22 − 1.2
Si miramos f [x0 , x1 ] y f [x1 , x2 ] como siendo una aproximación numérica para la derivada
de f  (x) en los puntos medios x0 +x2
1
y x1 +x
2
2
, respectivamente, entonces

f [x1 , x2 ] − f [x0 , x1 ]
= 2 f [x0 , x1 , x2 ]
( x1 +x
2
2
) − ( x0 +x
2
1
)

puede ser pensado como siendo una aproximación numérica para f  (x1 ) , pues x1 es el punto
medio del intervalo desde x0 a x2 . Luego la diferencia dividida de segundo orden f [x0 , x1 , x2 ]

es una aproximación numérica para f (x 2
1)
, en otras palabras,
f  (x1 ) ≈ 2f [x0 , x1 , x2 ] (4.36)
 
Como f  (x) = −sen(x) , tenemos f (x 2
1)
= f (1.21
2
)
= −0.46780800 , la cual puede ser
comparada con el valor f [x0 , x1 , x2 ] = −0.46780450 .

4.5 Cálculo de diferencias divididas


Una manera eficiente de calcular polinomios de interpolación es hacer uso de diferencias divi-
didas en conexión con la fórmula de interpolación de Newton.
Supongamos que son dada una función f (x) y una sucesión x0 , x1 , . . . , xn de valores dis-
tintos de la variable x .
La diferencias divididas de primer orden asociadas son

f (x1 ) − f (x0 )
f [x0 , x1 ] =
x1 − x0
f (x2 ) − f (x1 )
f [x1 , x2 ] =
x2 − x1
..
.
f (xn ) − f (xn−1 )
f [xn−1 , xn ] = .
xn − xn−1

Las segundas diferencias divididas asociadas son

f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1 , x2 ] =
x2 − x0
f [x2 , x3 ] − f [x1 , x2 ]
f [x1 , x2 , x3 ] =
x3 − x1
..
.
f [xn−1 , xn ] − f [xn−2 , xn−1 ]
f [xn−2 , xn−1 , xn ] = .
xn − xn−2
Sergio Plaza 165

Note que el número de diferencias divididas decrece a cada etapa hasta que llegamos a la
única diferencia dividida de orden n

f [x1 , . . . , xn ] − f [x0 , . . . , xn−1 ]


f [x0 , . . . , xn ] = .
xn − x0
Dada una lista de valores de la variable x , digamos [x0 , x1 , . . . , xn ] y valores de y , digamos
[y0 , y1 , . . . , yn ] , donde yi = f (xi ) para i = 0, 1, . . . , n , podemos generar todas las diferencias
divididas asociadas.
Por ejemplo, dados x0 , x1 , x2 , x3 , x4 y y0 , y1 , y2 , y3 , y4 . Tenemos 4 diferencias divididas
de primer orden

y1 − y0 y2 − y1 y3 − y2 y4 − y3
, , ,
x1 − x0 x2 − x1 x3 − x2 x4 − x3

tres diferencias divididas de segundo orden

y2 − y1 y1 − y0 y3 − y2 y2 − y1 y4 − y3 y3 − y2
− − −
x2 − x1 x1 − x0 x3 − x2 x2 − x1 x4 − x3 x3 − x2
, ,
x2 − x0 x3 − x1 x4 − x2

dos diferencias divididas de tercer orden

y3 − y2 y2 − y1 y2 − y1 y1 − y0
− −
x3 − x2 x2 − x1 x2 − x1 x1 − x0

x3 − x1 x2 − x0
,
x3 − x0
y4 − y3 y3 − y2 y3 − y2 y2 − y1
− −
x4 − x3 x3 − x2 x3 − x2 x2 − x1

x4 − x2 x3 − x1
x4 − x1

una diferencia dividida de cuarto orden

y4 − y3 y3 − y2 y3 − y2 y2 − y1 y3 − y2 y2 − y1 y2 − y1 y1 − y0
− − − −
x4 − x3 x3 − x2 x3 − x2 x2 − x1 x3 − x2 x2 − x1 x2 − x1 x1 − x0
− −
x4 − x2 x3 − x1 x3 − x1 x2 − x0

x4 − x1 x3 − x0
x4 − x0

Por ejemplo, tomando un conjunto de puntos (nodos) equiespaciados calculemos un polinomio


de grado 6 que aproxima a sen(x) sobre el intervalo [0, π2 ] . Para ello tomamos h = π/12 y
generamos los valores de xi y los correspondientes valores yi = sen(xi ) , para i = 0, . . . , 6 .
Tenemos entonces x0 = 0 , x1 = 0.2617993878 , x2 = 0.5235987756 , x3 = 0.7853981634 ,
x4 = 1.047197551 , x5 = 1.308996939 , x6 = 1.570796327 y y0 = 0 , y1 = 0.2588190451 ,
y2 = 0.5000000000 , y3 = 0.7071067812 , y4 = 0.8660254037 , y5 = 0.9659258263 , y6 = 1 ,
esto nos genera las siguiente lista de diferencias divididas
Sergio Plaza 166

diferencias divididas = [0, 0.9886159295, −0.1286720769, −0.1526656066, 0.02059656984,


0.006517494278, −0.0009653997733] .

Ejemplo 66 Si n = 1 , tenemos dos puntos (x0 , f (x0 )) y (x1 , f (x1 )) , luego

(f (x1 ) − f (x0 )) (x − x0 )
p(x) = f (x0 ) + ,
x1 − x0
esta es la ecuación de la linea recta pasando a través de los puntos (x0 , f (x0 )) y (x1 , f (x1 )) .

4.6 Interpolación de Hermite


Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < · · · < xn = b y
f : [a, b] −→ R una función 2n + 2 veces derivable con f (2n+2) (x) continua, sean yi = f (xi ) ,
i = 0, 1, . . . , n .
Problema. Encontrar un polinomio P (x) tal que

P (xi ) = f (xi )
(4.37)
P  (xi ) = f  (xi )

para i = 0, 1, . . . , n .

Teorema 4.1 Dados n + 1 puntos distintos en el intervalo [a, b] , digamos a  x0 < x1 <
· · · < xn  b y f : [a, b] −→ R una función 2n + 2 veces derivable con f (2n+2) (x) continua,
sean yi = f (xi ) , i = 0, 1, . . . , n . Entonces existe un único polinomio de grado a lo más 2n + 1 ,
H2n+1 (x) , tal que


H2n+1 (xi ) = f (xi )
 (4.38)
H2n+1 (xi ) = f  (xi )
para i = 0, 1, . . . , n donde H2n+1 (x) es dado por

-
n -
n
H2n+1 (x) = f (xj )Hn,j (x) + f  (xj )Ĥn,j (x) (4.39)
j=0 j=0

con

 
Hn,j (x) = 1 − 2(x − xj )Ln,j (xj ) (Ln,j (x))2 (4.40)

Ĥn,j (x) = (x − xj )(Ln,j (x))2 , (4.41)


Sergio Plaza 167

donde

(x − x0 ) · · · (x − xj−1 )(x − xj+1 ) · · · (x − xn )


Ln,j (x) =
(xj − x0 ) · · · (xj − xj−1 )(xj − xj+1 ) · · · (xj − xn )

son los coeficientes en la interpolación de Lagrange de f (x) . Además,

(x − x0 )2 · · · (x − x1 )2 · · · (x − xn )2 (2n+2)
f (x) − H2n+1 (x) = f (ξ(x)) , (4.42)
(2n + 2)!

con x0 < ξ(x) < xn .

Integrando, tenemos

  
xn xn xn
(x − x0 )2 · · · (x − xn )2 (2n+2)
f (x)dx = H2n+1 (x) + f (ξ(x))dx (4.43)
x0 x0 x0 (2n + 2)!

 xn  xn
f (x) ≈ H2n+1 (x) . (4.44)
x0 x0

4.7 Ejemplos resueltos

Problema 4.1 Encontrar el polinomio de interpolación para los puntos (1, 5) , (2, 3) , (4, 2) ,
(5, 4) , (6, 3) .

Solución. Tenenos

x − valores = [1, 2, 4, 5, 6] , y − valores = [5, 3, 2, 4, 3]

luego, calculando las diferencias divididas, obtenemos

(x − 1) (x − 2) (x − 1) (x − 2) (x − 4) 2 (x − 1) (x − 2) (x − 4) (x − 5)
p(x ) := 7 − 2 x + + −
2 12 15

La siguiente figura muestra el resultado obtenido


Sergio Plaza 168

4
y
3

0 1 2 3 4 5 6 7
x

Expandiendo los términos del polinomio de interpolación de Newton y ordenando, obtenemos

2 4 101 3 397 2 121


p(x) = − x + x − x + x+2
15 60 60 15
Problema 4.2 Encontrar el polinomio de interpolación de grado 6 para sen(x) en el intervalo
[0, π2 ] y que coincide de sen(x) en 7 puntos equiespaciados entre 0 y π2 inclusive.

Solución. Tenemos entonces que h = π/12 ≈ 0.261799387799149 y generamos los valores de


x , obteniendo

x − valores = [0., 0.261799387799149, 0.523598775598298, 0.785398163397447,


1.04719755119660, 1.30899693899574, 1.57079632679489]

y los valores de y ,

y − valores = [0., 0.258819045102520, 0.499999999999999, 0.707106781186547,


0.866025403784440, 0.965925826289066, 1.00000000000000]

de donde, relizando el cálculo de las diferencias divididas, otenemos el polinomio

p(x) = 0.988615929465368 x − 0.128672076727087 x (x − 0.261799387799149)


− 0.152665606983500 x (x − 0.261799387799149) (x − 0.523598775598298) +
0.0205965705401489 x (x − 0.261799387799149) (x − 0.523598775598298)
(x − 0.785398163397447) + 0.00651749335845159 x (x − 0.261799387799149)
(x − 0.523598775598298) (x − 0.785398163397447) (x − 1.04719755119660) −
0.000965398750105050 x (x − 0.261799387799149) (x − 0.523598775598298)
(x − 0.785398163397447) (x − 1.04719755119660) (x − 1.30899693899574)

En los 7 puntos de los nodos el valor dado por la fórmula de interpolación, esencialmente
coinciden con los valores de y dados por la función, excepto por un pequeño error. Por ejemplo,
Sergio Plaza 169

p(1.047197551) = 0.8660254034 y sen(1.047197551) = 0.8660254037 , p(1) = 0.8414709003 y


sen(1) = 0.8414709848 . Tenemos los siguientes datos

p(xi ) − f (xi ) = [[0, 0], [0.2617993878, 0.2588190451], [0.5235987756, 0.5000000000],


[0.7853981634, 0.7071067812], [1.047197551, 0.8660254038],
[1.308996939, 0.9659258263], [1.570796327, 1.000000000]]

Tenemos

0.8

0.6

0.4

0.2

0 0.2 0.4 0.6 0.8 1 1.2 1.4


x

Gráfico del polinomio de interpolación

Desarrollando y ordenando, nos queda

p(x) = −0.000965398750105050 x6 + 0.01030860538 x5 − 0.00209041508 x4 − 0.1654864753 x3


− 0.0003303719 x2 + 1.000034956 x

Podemos graficar el error absoluto para p(x) como una aproximación para sen(x) en el
intervalo [0, π2 ] .

1e–06

5e–07

0 0.2 0.4 0.6 0.8 1 1.2 1.4


x
–5e–07

–1e–06

Gráfico del error del polinomio de interpolación


Sergio Plaza 170

Problema 4.3 De una función f (x) se conocen sus valores yi en los puntos xi , i = 0, 1, 2, 3, 4 .
Se desea concer un valor aproximado de f (2.5)

xi yi
x0 = 0.0 y0 = 1.90
x1 = 0.5 y1 = 2.39
x2 = 1.0 y2 = 2.71
x3 = 1.5 y3 = 2.98
x4 = 2.0 y4 = 3.20
x5 = 3.0 y5 = 3.20
x6 = 3.5 y6 = 2.98
x7 = 4.0 y7 = 2.74

La forma más directa de calcular L7 (2.5) es escribir

(x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7,0 (x) =
(x0 − x1 ) (x0 − x2 ) (x0 − x3 ) (x0 − x4 ) (x0 − x5 ) (x0 − x6 ) (x0 − x7 )

evaluando L7,0 (2.5) , tenemos A0 = L7,0 (2.5) = 0.0178571428572

(x − x0 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,1 (x) =
(x1 − x0 ) (x1 − x2 ) (x1 − x3 ) (x1 − x4 ) (x1 − x5 ) (x1 − x6 ) (x1 − x7 )
evaluando A1 = L7,1 (2.5) = −0.142857142857

(x − x0 ) (x − x1 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,2 (x) =
(x2 − x0 ) (x2 − x1 ) (x2 − x3 ) (x2 − x4 ) (x2 − x5 ) (x2 − x6 ) (x2 − x7 )
evaluando, tenemos A2 = L7,2 (2.5) = 0.500000000000 .

(x − x0 ) (x − x1 ) (x − x2 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,3 (x) =
(x3 − x0 ) (x3 − x1 ) (x3 − x2 ) (x3 − x4 ) (x3 − x5 ) (x3 − x6 ) (x3 − x7 )

evaluando, tenemos A3 = L7,3 (2.5) = −1.00000000000

(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,4 (x) =
(x4 − x0 ) (x4 − x1 ) (x4 − x2 ) (x4 − x3 ) (x4 − x5 ) (x4 − x6 ) (x4 − x7 )

evaluando, tenemos A4 = L7,4 (2.5) = 1.25000000000

(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x6 ) (x − x7 )
L7 ,5 (x) =
(x5 − x0 ) (x5 − x1 ) (x5 − x2 ) (x5 − x3 ) (x5 − x4 ) (x5 − x6 ) (x5 − x7 )

evaluando, tenemos A5 = L7,5 (2.5) = 0.500000000000 ,

(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x7 )
L7 ,6 (x) =
(x6 − x0 ) (x6 − x1 ) (x6 − x2 ) (x6 − x3 ) (x6 − x4 ) (x6 − x5 ) (x6 − x7 )

evaluando, tenemos A6 = L7,6 (2.5) = −.142857142857


Sergio Plaza 171

(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 )
L7 ,7 (x)
(x7 − x0 ) (x7 − x1 ) (x7 − x2 ) (x7 − x3 ) (x7 − x4 ) (x7 − x5 ) (x7 − x6 )

y tenemos A7 = L7,7 (2.5) = 0.0178571428572 .


Por lo tanto,

L7 (2.5) = A0 × 1.9 + A1 × 2.39 + A2 × 2.71 + A3 × 2.98 + A4 × 3.2


+A5 × 3.2 + A6 × 2.98 + A7 × 2.74
= 3.29071428572

Otra forma, indirecta, es escribir cada uno de los polinomios coeficientes del polinomio de
Lagrange, calcular el polinomio de Lagrange en cuestión y después evaluar.
Tenemos

L7 ,0 (x) = −0.0158730158730 x7 + 0.246031746032 x6 + 0.999999999999


− 1.55158730159 x5 − 5.03571428571 x + 5.12103174603 x4
+ 9.70436507936 x2 − 9.46825396824 x3

L7 ,1 (x) = 0.101587301588 x7 − 1.52380952382 x6 + 12.8000000001 x


+ 9.16825396832 x5 − 38.8571428574 x2 − 28.1904761907 x4
+46.5015873019 x3

L7 ,2 (x) = −0.266666666667 x7 + 3.86666666667 x6 − 16.8000000000 x


− 22.2000000000 x5 + 67.8000000001 x2 + 63.8333333334 x4
−95.2333333335 x3

L7 ,3 (x) = 0.355555555554 x7 − 4.97777777776 x6 + 14.9333333333 x


+ 27.2888888888 x5 − 65.2444444442 x2 − 73.7777777775 x4
+101.422222222 x3

L7 ,4 (x) = −0.222222222222 x7 + 3.00000000000 x6 − 6.99999999999 x


− 15.7222222222 x5 + 31.7500000000 x2 + 40.2500000000 x4
−52.0555555555 x3
Sergio Plaza 172

L7 ,5 (x) = 0.0888888888886 x7 − 1.11111111111 x6 + 1.86666666666 x


+ 5.35555555554 x5 − 8.77777777775 x2 − 12.6111111111 x4
+15.1888888888 x3

L7 ,6 (x) = −0.0507936507936 x7 + 0.609523809523 x6 − 0.914285714285 x


− 2.83174603174 x5 + 4.34285714285 x2 + 6.47619047618 x4
− 7.63174603174 x3

L7 ,7 (x) = 0.00952380952380 x7 − 0.109523809524 x6 + 0.150000000000 x


+ 0.492857142857 x5 − 0.717857142856 x2 − 1.10119047619 x4
+ 1.27619047619 x3

Luego,

L7 (x) = L7,0 (x) y0 + L7,1 (x) y1 + L7,2 (x) y2 + L7,3 (x) y3


+L7,4 (x) y4 + L7,5 (x) y5 + L7,6 (x) y6 + L7,7 (x) y7

por lo tanto,

L7 (x) = −0.0301587301587 (x − 0.5) (x − 1.0) (x − 1.5) (x − 2.0) (x − 3.0) (x − 3.5) (x − 4.0)


+ 0.242793650795 x (x − 1.0) (x − 1.5) (x − 2.0) (x − 3.0) (x − 3.5) (x − 4.0)
− 0.722666666668 x (x − 0.5) (x − 1.5) (x − 2.0) (x − 3.0) (x − 3.5) (x − 4.0)
+ 1.05955555555 x (x − 0.5) (x − 1.0) (x − 2.0) (x − 3.0) (x − 3.5) (x − 4.0)
− 0.711111111110 x (x − 0.5) (x − 1.0) (x − 1.5) (x − 3.0) (x − 3.5) (x − 4.0)
+ 0.284444444444 x (x − 0.5) (x − 1.0) (x − 1.5) (x − 2.0) (x − 3.5) (x − 4.0)
− 0.151365079365 x (x − 0.5) (x − 1.0) (x − 1.5) (x − 2.0) (x − 3.0) (x − 4.0)
+ 0.0260952380952 x (x − 0.5) (x − 1.0) (x − 1.5) (x − 2.0) (x − 3.0) (x − 3.5)

desarrollando, nos queda

L7 (x) = 1.90000000000 − 0.0024126984178 x7 + 0.0311746033 x6 − 0.1385079373 x5


+ 0.211507937 x4 + 0.085825394 x3 − 0.634825396 x2 + 1.2572380950 x .

Luego, el valor pedido es

L7 (2.5) = 3.29071428572 .
Sergio Plaza 173

Ahora podemos calcular una aproximacion de la integral de f (x) usando el polinomio de


Lagrange esto es

 4  4
f (x) ≈ L7 (x) = 11.5714225246 .
0 0

Usando la regla de los trapecios con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 . Definimos los nuevos valores xi e yi = f (xi ) , i = 0, . . . , 8

xi 0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0


f (xi ) 1.90 2.39 2.71 2.98 3.20 3.29071428572 3.20 2.98 2.74

Tenemos, que

h
T rapf = × (y0 + 2 × y1 + 2 × y2 + 2 × y3 + 2 × y4 + 2 × y5 + 2 × y6 + 2 × y7 + y8 )
2

evaluando, obtenemos

Trap f := 11.5353571428 .

El error que hemos cometido en el cálculo comparado con el valor dado por la interpolación
de Lagrange

 4
Error(T rapf ) = |T rapf − L(x)|
0

nos da

Error(T rapf ) = 0.0360653818 .

Usando la regla de Simpson con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 y hemos redefinido los nuevos valores xi e yi = f (xi ) ,
i = 0, . . . , 8 . Tenemos que

h
Simpsonf = × (y0 + 4 × y1 + 2 × y2 + 4 × y3 + 2 × y4 + 4 × y5 + 2 × y6 + 4 × y7 + y8 )
3
evaluando, obtenemos
Simpsonf = 11.5704761905 .

El error que hemos cometido en el cálculo de la integral usando el polinomio de Lagrange y


la aproximación de Simpson es

 4
Error (Simpsonf ) = |Simpsonf − L(x)| = 0.0009463341
0
Sergio Plaza 174

3.2

2.8

2.6

2.4

2.2

0 1 2 3 4
x

Gráfico de L7 (x) en el intervalo [0, 4]


Podemos continuar nuestros cálculos, y tenemos simpson8 ≈ 11.5704761904 , con error Error ≈
0.0009463342 , simpson16 ≈ 11.5713597470 , con error Error ≈ 0.0000627776 y simpson32 ≈
11.5714185442 , con error Error ≈ 0.39804 10−5 , y para la regla de los trapecios, obtenemos
Trap ≈ 11.5704929653 .

Problema 4.4 Consideremos la funcion f (x) = x2 exp(−x2 ) . Deseamos calcular un valor


apromixado para la integral de f (x) en el intervalo [−2, 2] usando el polinomio de Lagrange
que interpola f (x) en los puntos x0 = −2 , x1 = −1 , x2 = 0 , x3 = 1 y x4 = 2 .
Solución. Tenemos que f (x) = x2 e−x
2

0.35

0.3

0.25

0.2

0.15

0.1

0.05

–2 –1 0 1 2
x

gráfico de f en [−2, 2]

Como la función es simétrica respecto del origen, se tiene que f (−1) = f (1) = 0.3678794412 ,
f (2) = f (−2) = 0.07326255556 y f (0) = 0 .

x0 = −2.0
x1 = −1.0
x2 = 0.
x3 = 1.0
x4 = 2.0

L4 (x) = L4,0 (x) f (x0 ) + L4,1 (x) f (x1 ) + L4,2 (x) f (x2 ) + L4,3 (x) f (x3 ) + L4,4 (x) f (x4 )

Luego,

L4 (x) = 0.0732625555548 L4,0(x) + 0.367879441171 L4,1(x) +


0.367879441171 L4,3(x) + 0.0732625555548 L4,4(x)
Sergio Plaza 175

(x − x1 ) (x − x2 ) (x − x3 ) (x − x4 )
L4,0 (x) =
(x0 − x1 ) (x0 − x2 ) (x0 − x3 ) (x0 − x4 )
leugo, reemplazando nos queda

L4,0 (x) = 0.0416666666668 x4 − 0.0833333333336 x3 − 0.0416666666668 x2 + 0.0833333333336 x

(x − x0 ) (x − x2 ) (x − x3 ) (x − x4 )
L4,1 (x) =
(x1 − x0 ) (x1 − x2 ) (x1 − x3 ) (x1 − x4 )

L4,1 (x) = −0.166666666667 x4 + 0.166666666667 x3 − 0.666666666668 x + 0.666666666668 x2 .

Como f (x2 ) = 0 , no es necesario calcular L4,2 (x) , pero de todas maneras lo hacemos;

(x − x0 ) (x − x1 ) (x − x3 ) (x − x4 )
L4,2 (x) = .
(x2 − x0 ) (x2 − x1 ) (x2 − x3 ) (x2 − x4 )

Expandiendo L4,2 (x) nos queda

L4,2 (x) = 0.250000000000 x4 + 1.00000000000 − 1.25000000000 x2

(x − x0 ) (x − x1 ) (x − x2 ) (x − x4 )
L4,3 (x) = ,
(x3 − x0 ) (x3 − x1 ) (x3 − x2 ) (x3 − x4 )
de donde

L4,3 (x) = −0.166666666666 x4 − 0.166666666666 x3 + 0.666666666664 x + 0.666666666664 x2

(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 )
L4,4 (x) =
(x4 − x0 ) (x4 − x1 ) (x4 − x2 ) (x4 − x3 )

L4,4 (x) = 0.0416666666666 x4 + 0.0833333333332 x3 − 0.0833333333332 x − 0.0416666666666 x2

Luego,

L4 (x) = −0.116521267427 x4 + 0.4 10−12 x3 + 0.484400708598 x2 − 0.1 10−11 x

Cálculo aproximado de la integral, usando un software, nos da

 2
f (x) = 0.845450112985 .
−2
Sergio Plaza 176

Usando el polinomio de Lagrange L4 (x) , obtenenos la siguiente aproximación para el valor


de la integral

 2  2
f (x) ≈ L4 (x) = 1.09199822279 .
−2 .−2

El error cometido al calcular la integral usando la interpolacion de Lagrange comparado con


el resultado de la integrla de f (x) es

Error Lagrange = 0.246548109805 ,

el cual es muy grande.


Usando la regla de los trapecios para aproximar la integral de f (x) , tenemos

h=1
y0 = 0.0732625555548
y1 = 0.367879441171
y2 = 0
y3 = 0.367879441171
y4 = 0.0732625555548
luego,

Trap f = 0.809021437895

El error cometido es entonces

Error Trapecio = 0.036428675090

0.5

0.4

0.3

0.2

0.1

–2 –1 0 1 2
x

simpson8 = 1.08811418054
Err = 0.00388404225
simpson32 = 1.09198305075

Err = 0.00001517204

trap = 1.04463387609
Sergio Plaza 177

Problema 4.5 Ejemplo del fenómeno de Runge


Para un ejemplo numérico del fenómeno de Runge consideramos un polinomio de grado 10
1
interpolando la función f (x) = 1+25 x2 en el intervalo [−1, 1] , tomamos el conjunto de datos
equiespaciado. Este es un ejemplo clásico para ilustrar el problema asociado con el uso de
polinomios interpolantes para aproximar una función.
1
f (x) =
1 + 25 x2

1
Tomando h = , obtenemos
5
390625 10 109375 8 51875 6 54525 4 3725 2
p(x) = − x + x − x + x − x +1
1768 221 136 442 221
Notemos que el polinomio interpolante oscila violentamente y no aproxima “muy bien” a la
funcion original.

1 2 2

0.8 1.5 1.5

0.6 1 1

0.4
0.5 0.5

0.2
–1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1 –1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1
x x
–1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1
x

gráfico de f (x) gráfico de p(x) graficos de f (x) y de p(x)

4.8 Ejercicios
Problema 4.1 Considere la función f (x) = e−x en el intervalo [−1, 1] . Construya los poli-
2

nomios de interpolación de Newton, con puntos equiespaciados y h = 1/10 y h = 1/20 .

Problema 4.2 Encuentre el polinomio de interpolación de Newton para los puntos dados a
seguir        
1 1 3 5
−2, , −1, , (0, 1) , 1, , 2, .
4 2 2 4

Muestre la gráfica del polinomio de interpolación.

Problema 4.3 Para la función


1
f (x) =
1 + 25 x2
muestre explicitamente el polinomio de interpolación de Newton

p(x) = f (x0 ) + (x − x0 ) f [x0 , x1 ] + (x − x0 ) (x − x1 ) f [x0 , x1 , x2 ]


+(x − x0 ) (x − x1 ) (x − x2 ) f [x0 , x1 , x2 , x3 ] +
· · · + (x − x0 ) (x − x1 ) · · · (x − xn−1 ) f [x0 , . . . , xn ]
Sergio Plaza 178

considerando las siguientes listas de valores de x :


[0, 14 ] ; [0, 14 , 12 ] ; [0, 14 , 12 , 34 ] ; [0, 14 , 12 , 34 , 1] ; [0, 14 , 12 , 34 , 1, 54 ] ; [0, 14 , 12 , 34 , 1, 54 , 32 ] ;
[0, 14 , 12 , 34 , 1, 54 , 32 , 74 ] ; [0, 14 , 12 , 34 , 1, 54 , 32 , 74 , 2] .
Grafique en cada caso el polinomio resultante y compare con el gráfico de la función original
Cuál es su conclusión?

Problema 4.4 Para la función f (x) = ln(1 + x) , encuentre explicitamente el polinomio de


interpolación de Newton en su forma
p(x) = f (x0 ) + (x − x0 ) f [x0 , x1 ] + (x − x0 ) (x − x1 ) f [x0 , x1 , x2 ] + (x − x0 ) (x − x1 ) (x −
x2 ) f [x0 , x1 , x2 , x3 ] + · · · + (x − x0 ) (x − x1 ) · · · (x − xn−1 ) f [x0 , . . . , xn ]
para las siguientes listas de valores de x
[0, 15 ] ; [0, 15 , 25 ] ; [0, 15 , 25 , 35 ] ; [0, 15 , 25 , 35 , 45 ] ; [0, 15 , 25 , 35 , 45 , 1] .
Grafique en cada caso el polinomio obtenido y la función original, y compare Cuál es su
conlcusión?

Problema 4.5 Calcule el polinomio de interpolación de Lagrange para f (x) , si se conocen los
los siguientes datos

x 3 8 5 1 7
f (x) −459 −18864 −3105 −13 −11263

Usando la aproximación polinomial de f obtenida en (a), calcule un valor aproximado para


 8
f (x)dx .
1

2
Problema 4.6 Considere la función f (x) = ex .

a) Usando los puntos x0 = 0 , x1 = 0.25 , x2 = 0.5 , x3 = 0.75 , x4 = 1.0 . Calcule el


polinomio de interpolación de Lagrange para f (x) .

b) Exprese una cota para el error en la aproximación de Lagrange obtenida en la parte a).
(Simplifique al máximo la expresión obtenida para el error).

c) Usando el polinomio de interpolación de Lagrange obtenido en la parte a), calcular una


 1
aproximación para la integral f (x) dx , y obtener una buena cota para el error.
0

Problema 4.7 Considere la función f (x) = ex .

1. Usando los puntos x0 = 0 , x1 = 0.25 , x2 = 0.5 , x3 = 0.75 , x4 = 1.0 . Calcule el


polinomio de interpolación de Hermite para f (x) .

2. Exprese una cota para el error en la aproximación de Hermite obtenida en la parte 1).
(Simplifique al máximo la expresión obtenida para el error)

3. Usando el polinomio de interpolación de Hermite obtenido en la parte 1), calcular una


 1
aproximación para la integral f (x) dx , y obtener una buena cota para el error (com-
0
pare con el valor exacto de la integral).
Sergio Plaza 179

Problema 4.8 Sea f : [a, b] → R una función suficientemente derivable un número suficiente
de veces.

a) Si f es simétrica respecto al origen, es decir, f (−x) = f (x) , y se consideran los puntos


x0 , . . . , x2n distribuidos simétricamente, con xn = 0 ¿Son los polinomios

(x − x0 ) · · · (x − xk−1 )(x − xk+1 ) · · · (x − x2n )


L2n,k (x) =
(x − x0 ) · · · (xk − xk−1 )(xk − xk+1 ) · · · (xk − x2n )

simétricos respecto al origen? ¿Es el polinomio de Lagrange L2n (x) simétrico respecto al
origen? Justifique su respuesta. Ilustre usando la función f (x) = e−x , con x ∈ [−, 1] .
2

b) ¿Qué puede decir de L2n,k (x) y de L2n (x) si f es antisimétrica, respecto al origen es
decir, f (−x) = −f (x) ? Justifique su respuesta. Ilustre usando la función f (x) = sen(x) ,
con x ∈ [−1, 1] .

Problema 4.9 Sea f : [0, 4] −→ R una función suficientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = −1 , f (4) = 0 , y |f (5) (x)|  π32 .

1. Determine el polinomio de Lagrange L4 (x) asociado a f .

2. Estime el error |f (x) − L4 (x)| .


4
3. Usando L4 (x) , determine una aproximación y el error cometido para el cálculo de 0 f (x)dx .

Problema 4.10 Considere la función f (x) = sen(x) , con −2π  x  2π .

1. Calcule los desarrollos de Taylor de f (x) en torno a x = 0 , hasta los ordenes 3 , 5 ,


9 estimando en cada caso el error. Grafique los polinomios de Taylor y compare con la
gráfica de f (x) .

2. Considere la partición −2π < −π < 0 < π < 2π , y calcule el polinomio de Lagrange
 2π
para f (x) , estimando el error. Aproxime el valor de −2π f (x) usando el polinomio de
Lagrange, estimando el error.

3. Considerando la partición anterior, encuentre el polinomio de Hermite para f . Aproxime


 2π
el valor de −2π f (x) , estimando el error.

4. ¿Cuál es su conclusión para los itemes 1), 2), y 3)?

5. Refinando la partición anterior, obtenemos una nueva partición, −2π < −3π/2 < −π <
−π/2 < 0 < π/2 < π < 3π/2 < 2π . Usando esta nueva partición repita los ejercicios 2)
y 3) anteriores.

6. Calcule aprimadamente la derivada de dos maneras distintas para f (x) en x = π usando


h = π/2 . Calcule también la segunda derivada aproximadamente de f (x) en x = π .
Como se conoce explicitamente las derivadas primeras y segundas de f (x) , estime el error
que cometió en sus aproximaciones.

Problema 4.11 Considere la función f (x) = sen(2πx) .


Sergio Plaza 180

a) Usando los puntos x0 = 0 , x1 = 0.25 , x2 = 0.5 , x3 = 0.75 , x4 = 1.0 . Calcule el


polinomio de interpolación de Hermite para f (x) . Exprese una cota para el error en la
aproximación obtenida en la parte. (Simplifique al máximo la expresión obtenida para el
error)

b) Usando el polinomio de interpolación de Hermite obtenido en la parte a), calcular una


 1
aproximación para la integral f (x) dx , y obtener una buena cota para el error.
0

Problema 4.12 Sea f : [0, 1] −→ R una función al menos tres veces derivable con continuidad,
que satisface f (0) = 0 , f  (0) = 1 , f (0.5) = 1 , f  (0.5) = 0 , f (1) = 0 y f  (1) = 1 .

1. Encuentre un polinomio P , de menor grado posible, que aproxime a f y que satisface


las mismas condiciones que f en los puntos fijados x0 = 0 , x1 = 0.5 y x2 = 1 .

2. Determine una expresión para error y una buena cota para este (simplifique al máximo).

Problema 4.13 Considere una función f : [0, 4] −→ R , al menos cinco veces derivable, de la
cual se sabe que f (0) = 0 , f (1) = 1.7183 , f (2) = 6.3891 , f (3) = 19.0855 , f (4) = 53.5982 , y
tal que |f (k) (x)|  ex para todo x ∈ [0, 4]

1. Encuentre el polinomio de Lagrange L4 (x) correspondiente a f .


4
2. Calcule 0 f (x)dx aproximadamente y acote el valor absoluto del error cometido en la
aproximación.

Problema 4.14 Sea f : R −→ R una función, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 0 , f (0.25) = 1 , f (0.5) = 0 , f (0.75) = −1 ,
f (1) = 0 , y |f (n) (x)|  (2π)n para todo x ∈ R y todo n  1 .

(a) Usando la información dada, encuentre el polinomio de interpolación Lagrange para f (x) .
 1
(b) Calcule una aproximación para f (x)dx usando el polinomio obtenido en a).
0

(c) Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en a) en el intervalo [0, 1] .
 0.5
(d) Encuentre el error para la aproximación de f (x)dx por la integral del polinomio de
0
interpolación de Lagrange obtenido en a)

Problema 4.15 a) Sea f (x) = a0 + a1 x + · · · + an xn un polinomio de grado n . Dadas las


condiciones de interpolación, x0 < x1 < · · · < xn y f (xj ) = yj , j = 0, 1, . . . , n . Pruebe
que el polinomio de interpolación correspondiente, Pn (x) , coincide con f (x) .

b) Dado f (x) = 1 + x − x2 . Verifique a) para este caso particular.

Problema 4.16 Sea f : [0, 4] −→ R una función suficientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = −1 , f (4) = 0 , y |f (5) (x)|  π32 para todo x ∈ [0, 4] .
Sergio Plaza 181

(a) Determine el polinomio de Lagrange L4 (x) asociado a f .

(b) Estime el error |f (x) − L4 (x)| .


4
(c) Usando L4 (x) , determine una aproximación y el error cometido para el cálculo de 0 f (x)dx .

Problema 4.17 Sea f : R −→ R una función, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 1 , f (0.25) = 0 , f (0.5) = −1 , f (0.75) = 0 ,
f (1) = 1 , y |f (n) (x)|  (2π)n para todo x ∈ R y todo n  1 .

1. Usando la información dada, encuentre el polinomio de interpolación Lagrange para f (x) .


 1
2. Calcule una aproximación para f (x)dx usando el polinomio obtenido en 1).
0

3. Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en 1) en el intervalo [0, 1] .
 0.5
4. Encuentre el error para la aproximación de f (x)dx por la integral del polinomio de
0
interpolación de Lagrange obtenido en 1)

1
Problema 4.18 Considere la función f : [−1, 1] −→ R dada por f (x) = . Usando
1 + 25x2
divisiones uniformes, calcule y grafique Ln (n) , para n = 2, 3, 4, . . . , 10 para esas subdivisiones.
Grafique f (x) y Ln (x) . Compare Cuál es su conclusión?

Problema 4.19 Una función f (x) satisface f (0) = 1 , f (1)  = 1 , f (2) = 2 . Calcule la
3
interpolación de Lagrange para f , y use esta para estimar f . Grafique.
2

Problema 4.20 Una función f (x) satisface f (−1) = 1, f (0) = 2 , f (2) = 1 . Encuentre
la aproximación de f mediante interpolación de Lagrange. Estime f (1) . Si es sabido que
|f  (x)| , es acotada por 1.12 para x ∈ [−1, 2] . Encuentre el error que se produce al aproximar
f (1) por la interpolación de Lagrange. Grafique.

Problema 4.21 Dados los siguientes datos

x 0 1 2 3 4 5
y 2 2 3 5 6 7

Calcule el polinomio de interpolación de Lagrange para esos datos. Grafique el resultado.

Sean x0 = 0 , x1 = 1.5 , x2 = 2 . Suponga que f (x0 ) = 1 , f (x1 ) = 0 y f (x2 ) = −1 . Calcule


las diferencias divididas (todas) y escriba el poinomio de Lagrange. Grafique.

Problema 4.22 Sea f (x) = x3 . Sean x0 , x1 , x2 tres puntos distintos, con x0 < x1 < x2 .
Calcule f [x0 , x1 , x2 ] .

Problema 4.23 Para una función f (x) se conocen f [−1] = 2, f [−1, 1] = 1, f [−1, 1, 2] =
−2, f [−1, 1, 2, 4] = 2 . Escriba el polinomio de interpolación de grado a lo más 3 con nodos en
−1 , 1 , 2 , 4 . Usando ese polinomio, estime f (0) .
Sergio Plaza 182

Problema 4.24 Complete la siguiente tabla de diferencias divididas

k 0 1 2 3
xk -1 0 1 3
yk 1 0 -1 2
f [xk−1 , xk ] ? -1 -1 ?
f [xk−2 , xk−1 , xk ] ? ? ? ?
f [xk−3 , xk−2 , xk−1 , x2 ] ? ? ? ?

y calcule el polinomio de interpolación de grado a lo más 3 para (xk , yk ) , k = 0, 1, 2, 3 .


1
Problema 4.25 Para aproximar I(f ) = −1
f (x) dx se propone la siguiente fórmula:
Ia (f ) = Af (0) + Bf  (−1) + Cf  (1).

(a) Calcular los valores de las constantes A , B y C de modo que la fórmula Ia sea exacta
en P2 (R) (el espacio vectorial de los polinomios de grado menor o igual que 2).
(b) Usando la fórmula obtenida en la parte (a), aproxime la integral
 π
exp(sin(x)) dx.
0

Problema 4.26 Se desea construir una función f : R → R tal que f (x) = 0 para x  0
y f (x) = 1 para x  1. Para x ∈ [0, 1], necesitaremos definir una función s, polinomial por
pedazos, que conecte ambas ramas de f , esto es, s(0) = 0, s(1) = 1, y para tener continuidad
de las tangentes, s (0) = 0 y s (1) = 0. Se busca entonces s : [0, 1] → R definida por dos
polinomios p, q ∈ P3 (R) de modo que


p(x) si x ∈ [0, 12 ],
s(x) =
q(x) si x ∈ ( 12 , 1],
que sea de clase C 2 ([0, 1]) (es decir, que tenga segunda derivada continua en [0, 1]), y que
interpole a los datos {0, 12 , 1} en la malla {0, 12 , 1} (ver figura).
1
(a) Sea m la derivada de s en 2 (o sea m = s ( 12 )). Encuentre las expresiones de p(x) y q(x)
en función de m.
(b) Determine el valor de la constante m de modo que la función s(x) resultante sea de clase
C 2 ([0, 1]). En este caso, escriba explı́citamente s(x) en el intervalo [0, 1].

Problema 4.27

Problema 4.28

Problema 4.29

Problema 4.30

Problema 4.31

Problema 4.32
Capı́tulo 5

Derivadas Numéricas

La primera fórmula para calcular derivadas numéricamente proviene del cálculo diferencial, y
es dada por
f (x + h) − f (x)
f  (x) = + R(h2 ) , (5.1)
h
donde limh→0 R(h2 ) = 0 .
Para tener mejores aproximaciones podemos usar expansión de Taylor alrededor de x para
f (x + h) y f (x − h)

h2  h3
f (x + h) = f (x) + hf  (x) + f (x) + f  (x) + · · · (5.2)
2 6
f (x) = f (x) (5.3)
2 3
h  h
f (x − h) = f (x) − hf  (x) + f (x) − f  (x) + · · · (5.4)
2 6

y haciendo alguna combinaciones de esa expansiones.


Por ejemplo, considerando la expansión hasta orden 2, tenemos
h2 
f (x + h) = f (x) + hf  (x) + f (ξ1 (x)) (5.5)
2
f (x) = f (x) (5.6)
2
h 
f (x − h) = f (x) − hf  (x) + f (ξ2 (x)) (5.7)
2

con ξ1 (x) entre x y x + h y ξ2 (x) entre x − h y x . Restando (5.6) de (5.5), nos queda

h2 
f (x + h) − f (x) = hf  (x) + f (ξ1 (x)) ,
2

de donde, despejando f  (x) obtenemos la fórmula


f (x + h) − f (x) h 
f  (x) = − f (ξ1 (x)) . (5.8)
 h
  2  
aproximación error

183
Sergio Plaza 184

Considerando ahora el desarrollo hasta orden 3, tenemos

h2  h3
f (x + h) = f (x) + hf  (x) + f (x) + f  (θ1 (x)) (5.9)
2 6
f (x) = f (x) (5.10)
2 3
h  h
f (x − h) = f (x) − hf  (x) + f (x) − f  (θ2 (x)) (5.11)
2 6
con θ1 (x) entre x y x + h y θ2 (x) entre x − h y x .
Restando (5.11) de (5.9), nos queda

h3 f  (θ1 (x)) + f  (θ2 (x))


f (x + h) − f (x − h) = 2hf  (x) + .
3 2

Si f  (x) es continua, entonces

f  (θ1 (x)) + f  (θ2 (x))


= f  (θ(x))
2
para algún θ(x) entre x − h y x + h . Luego,

f (x + h) − f (x − h) h2 
f  (x) = − f (θ(x)) . (5.12)
 2h
  6  
arpoximación error

esta es llamada fórmula de las diferencias centradas para la primera derivada.


Para obtener fórmulas para derivadas de orden 2, consideramos desarrollos hasta orden 4.

h2  h3 h4
f (x + h) = f (x) + hf  (x) + f (x) + f  (x) + f (4) (η1 (x)) (5.13)
2 6 24
f (x) = f (x) (5.14)
h2 h3 h4
f (x − h) = f (x) − hf  (x) + f  (x) − f  (x) + f (4) (η2 (x)) (5.15)
2 6 24

con η1 (x) entre x y x + h y η2 (x) entre x − h y x . Sumando (5.13) y (5.15) y restando


(5.14) multiplicada por 2, nos queda

h4 f (4) (η1 (x)) + f (4) (η2 (x))


f (x + h) − 2f (x) + f (x − h) = h2 f  (x) + .
12 2

Si f (4) (x) es continua, entonces

f (4) (η1 (x)) + f (4) (η2 (x))


= f (4) (η(x))
2
con η(x) entre x − h y x + h . Luego,

h4 (4)
f (x + h) − 2f (x) + f (x − h) = h2 f  (x) + f (η(x))
12
Sergio Plaza 185

con η(x) entre x − h y x + h . De donde

f (x + h) − 2f (x) + f (x − h) h2 (4)
f  (x) = 2
− f (η(x)) (5.16)
 h  12  
aproximación error

esta es llamada fórmula de las diferencias centradas para la segunda derivada.

Veamos ahora como obtener otras fórmulas para derivadas numérica usando interpolacion de
Lagrange.
Sea f : [a, b] −→ R tal que f  (x) es continua. Sea x0 ∈ ]a, b[ y h = 0 pequeño. Definimos
x1 = x0 + h , h = 0 suficientemente pequeño para que x1 ∈ [a, b] . Tenemos la aproximación
de Lagrange de grado 1, L1 (x) para f (x) determinada por x0 y x1 , con su error. Esta es
dada por

(x − x0 )(x − x1 ) 
f (x) = L1 (x) + f (ξ(x))
2!
x − x1 x − x0 (x − x0 )(x − x1 ) 
= f (x0 ) + f (x1 ) + f (ξ(x))
x0 − x1 x1 − x0 2
(x − x0 − h) (x − x0 ) (x − x0 )(x − x0 − h) 
= f (x0 ) + f (x0 + h) + f (ξ(x))
−h h 2

donde ξ(x) ∈ [a, b] .


Derivando la igualdad anterior, obtenemos

 
 f (x0 + h) − f (x0 ) d (x − x0 )(x − x0 − h) 
f (x) = + f (ξ(x))
h dx 2
f (x0 + h) − f (x0 ) 2(x − x0 ) − h 
= + f (ξ(x))
h 2
(x − x0 )(x − x0 − h) d 
+ (f (ξ(x))) .
2 dx

Luego

f (x0 + h) − f (x0 )
f  (x) ≈ .
h
d 
Ahora (f (ξ(x))) = f  (ξ(x))ξ  (x) , y no tenemos información sobre esto, luego el error de
dx
d 
truncación no lo podemos estimar. Cuando x = x0 , el coeficiente que acompaña a f (ξ(x))
dx
se anula, y entonces

f (x0 + h) − f (x0 ) h 
f  (x0 ) = − f (ξ) (5.17)
h 2

Ahora, si x0 , . . . , xn son n + 1 puntos distintos en el intervalo I = [a, b] y f (x) es n + 1


veces derivable, con f (n+1) (x) continua. Tenemos que
Sergio Plaza 186

-
n
(x − x0 ) · · · (x − xn ) (n+1)
f (x) = f (xk )Ln,k (x) + f (ξ(x))
(x + 1)!
k=0

con ξ(x) ∈ [a, b] . Derivando, obtenemos

-
n  
 (x − x0 ) · · · (x − xn ) (n+1)
d
f (x) = f (xk )Ln,k (x) + f (ξ(x))
dx(n + 1)!
k=0
-n  
 d (x − x0 ) · · · (x − xn )
= f (xk )Ln,k (x) + · f (n+1) (ξ(x))
dx (n + 1)!
k=0
(x − x0 ) · · · (x − xn )) d (n+1)
+ f (ξ(x))
(n + 1)! dx

el factor del último sumando se anula en cuando x = xj , para j = 0, . . . , n.


Luego

-
n
f (n+1) (ξ(x)) 4
n
f  (xj ) = f (xk )Ln,k (x) + (xj − xi ) (5.18)
(n + 1)! i = 0
k=0
i = j

Ejemplo. Fórmula con tres modos.


En este caso, son dados x0 , x1 y x2 , y f (x) una función 3 veces derivable, con f  (x)
continua. Entonces

(x − x1 )(x − x2 ) 2x − x1 − x2
L2,0 (x) = , L2,0 (x) =
(x0 − x1 )(x0 − x2 ) (x0 − x1 )(x0 − x2 )

(x − x0 )(x − x2 ) 2x − x0 − x2
L2,1 (x) = , L2,1 (x) =
(x1 − x0 )(x1 − x2 ) (x1 − x0 )(x1 − x2 )

(x − x0 )(x − x1 ) 2x − x0 − x1
L2,2 (x) = , L2,2 (x) =
(x2 − x0 )(x2 − x1 ) (x2 − x0 )(x2 − x1 )

Reemplazando en la fórmula (5.18), nos queda

2xj − x1 − x2 2xj − x0 − x2
f  (xj ) = f (x0 ) + f (x1 )
(x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 )

4 2
2xj − x0 − x1 1
+f (x2 ) + f (3) (ξj ) (xj − xi )
(x2 − x0 )(x2 − x1 ) 6 i = 0
i = j

donde j = 0, 1, 2 y ξj depende de xj .
Sergio Plaza 187

Ahora, tomamos a1 = x0 + h , x2 = x1 + h = x0 + 2h ( h = 0 ). Para xj = x0 , tenemos que


x1 = x0 + h y x2 = x0 + 2h . Luego

 
 1 3 1 h2
f (x0 ) = − f (x0 ) + 2f (x1 ) − f (x2 ) + f (3) (ξ0 ) ,
h 2 2 3

para xj = x1 , tenemos

 
1 1 1 h2
f  (x1 ) = − f (x0 ) + f (x2 ) − f (3) (ξ1 )
h 2 2 6
y para xj = x2 ,

 
 1 1 3 h2
f (x2 ) = f (x0 ) − 2f (x1 ) + f (x2 ) + f (3) (ξ2 ) .
h 2 2 3

Como x1 = x0 + h y x2 = x0 + 2h , tenemos

 
1 3 1 h2 (3)
f  (x0 ) = − f (x0 ) + 2f (x0 + h) − f (x0 + 2h) + f (ξ0 )
h 2 2 3
 
1 1 1 h2
f  (x0 + h) = − f (x0 ) + f (x0 + 2h) − f (3) (ξ1 )
h 2 2 6
 
1 1 3 h2 (3)
f  (x0 + 2h) = f (x0 ) − 2f (x0 + h) + f (x0 + +2h) + f (ξ2 ) ,
h 2 2 6

es decir, reemplazamdo x0 para x0 + h en la segunda ecuación y x0 para x0 + 2h en la tercera


ecuación obtenemos

1 h2
a) f  (x0 ) = (−3f (x0 ) + 4f (x0 + h) − f (x0 + 2h) + f (3) (ξ0 )
2h 3
1 h2
b) f  (x0 ) = (−f (x0 − h) + f (x0 + h)) − f (3) (ξ1 )
2h 6
1 h2
c) f  (x0 ) = (f (x0 − 2h) − 4f (x0 − h) + 3f (x0 )) + f (3) (ξ2 )
2h 3

De modo análogo, puede deducirse las fórmulas

1 h4
d) f  (x0 ) = (f (x0 − 2h) − 8f (x0 − h) + 8f (x0 + h) − f (x0 + 2h)) + f (5) (ξ)
12h 30
1
e) f  (x0 ) = (−25f (x0 ) + 48f (x0 + h) − 36f (x0 + 2h) + 16f (x0 + 3h) − 3f (x0 + 4h)))+
12h
h4 (5)
f (ξ)
5
Sergio Plaza 188

5.1 Ejercicios
Problema 5.1 Usando las fórmulas anteriores (todas) calcule f  (2.0) , donde f (x) = xex ,
primero con h = 0.1 y despues con h = −0.1 . Analice los resultados en comparación con la
derivada f  (x) calculada en forma exacta y evaluada en x = 2.0 .

Problema 5.2 Para calcular numéricamente la derivada de una función f (x) , podemos usar
las siguiente aproximaciones

f (x0 + h) − f (x0 )
(i) f  (x0 ) ≈ ,
h
f (x0 + h) − f (x0 − h)
(ii) f  (x0 ) ≈ .
2h

1
(a) Considerando f (x) = sen(x) , x0 = π/4 , y hn = , con n = 1, . . . , 5 , estime f  (π/4) ,
10n
usando (i) y (ii) anteriores.

(b) En ambas fórmulas (a) y (b) anteriores existe pérdidad de dı́gitos significativos (es decir,
son numéricamente inestables) pues existe resta de números parecidos ¿Cuál de ellas es
más inestable? Justifique su respuesta en forma teórica y numérica.

Problema 5.3 Obtenga los valores de a1 y a2 de modo que la fórmula de derivación numérica
f  (1/2) ≈ a1 f (0) + a2 f (1/2) sea exacta para las funciones 1 , x .

Problema 5.4

Problema 5.5

Problema 5.6

Problema 5.7

Problema 5.8

Poner lista de fórmulas para derivadas numéricas


Capı́tulo 6

Spline Cúbicos

Sea f : [a, b] −→ R y sean a = x0 < x1 < · · · < xn = b . Un spline cúbico S(x) para f (x) es
una función que satisface

1. S(x) es un polinomio cúbico en cada intervalo [xj , xj+1 ] . Notación S


[xj ,xj+1 ] = Sj ,
j = 0, 1, . . . , n − 1 ,

2. S(xj ) = f (xj ) , j = 0, 1, . . . , n ,

3. Sj (xj+1 ) = Sj+1 (xj+1 ) , j = 0, 1, . . . , n − 2 ,

4. Sj (xj+1 ) = Sj+1



(xj+1 ) , j = 0, 1, . . . , n − 2 ,

5. Sj (xj+1 ) = Sj+1



(xj+1 ) , j = 0, 1, . . . , n − 2 ,

6. una de las siguientes condiciones de frontera se cumple

(a) S  (x0 ) = S  (xn ) = 0 , frontera libre o natural.


(b) S  (x0 ) = f  (x0 ) y S  (xn ) = f  (xn ) , frontera sujeta.

6.1 Construcción de Spline cúbicos


Consideremos los polinomios cúbicos

Sj (x) = aj + bj (x − xj ) + cj (x − xj )2 + dj (x − xj )3 , (6.1)
j = 0, 1, . . . , n − 1 .
Ahora, aplicando la condición (3), tenemos

aj+1 = Sj+1 (xj+1 ) = Sj (xj+1 )


= aj + bj (xj+1 − xj ) +cj (xj+1 − xj )2 +dj (xj+1 − xj )3 (6.2)
        
hj h2j h3j

189
Sergio Plaza 190

j = 0, 1, . . . , n − 2 .
Usaremos la notación hj = xj+1 − xj , para j = 0, 1, . . . , n − 1 , y

an = f (xn ) . (6.3)

La ecuación (6.2) se escribe entonces como

aj+1 = aj + bj hj + cj h2j + dj h3j , j = 0, 1, . . . , n − 1. (6.4)

Ahora definamos

bn = S  (xn ) . (6.5)

Tenemos entonces

Sj (x) = bj + 2cj (x − xj ) + 3dj (x − xj )2 , (6.6)

Luego, Sj (xj ) = bj , j = 0, 1, . . . , n − 1 .


Aplicando la condición (4) obtenemos


bj+1 = Sj+1 (xj+1 ) = Sj (xj+1 ) = bj + 2cj hj + 3dj h2j (6.7)

j = 0, 1, . . . , n − 1 .
Definamos

S  (xn )
cn = (6.8)
2
aplicando la condición (5), obtenemos

cj+1 = cj + 3dj hj , j = 0, 1, . . . , n − 1 (6.9)

despejando dj de esta ecuación obtenemos

cj+1 − cj
dj = (6.10)
3hj

Reemplazando en la ecuación para aj+1 (6.4) y para bj+1 (6.7), nos queda

h2j
aj+1 = aj + bj hj + (2cj + cj+1 ) (6.11)
3

bj+1 = bj + hj (cj + cj+1 ) (6.12)

De la ecuación (6.11) despejamos bj , y nos queda

1 hj
bj = (aj+1 − aj ) − (2cj + cj+1 ) (6.13)
hj 3
Sergio Plaza 191

Para j − 1 obtenemos

1 hj−1
bj−1 = (aj − aj−1 ) − (2cj−1 + cj ) . (6.14)
hj−1 3

Reemplazando en la ecuación para bj+1 , con el ı́ndice reducido en 1, obtenemos el siguiente


sistema de ecuaciones lineales

3 3
hj−1 cj−1 + 2(hj−1 + hj )cj + hj cj+1 = (aj+1 − aj ) − (aj − aj−1 ) (6.15)
hj hj−1

j = 1, . . . , n − 1 .
Notemos que hj y aj son conocidos. Los otros coeficientes bj y dj , j = 0, 1, . . . , n − 1 se
obtienen de

1 hj
bj = (aj+1 − aj ) − (2cj + cj+1 ) (6.16)
hj 3

cj+1 − cj
dj = . (6.17)
3hj

Teorema 6.1 Sea f : [a, b] −→ R y a = x0 < x1 < · · · < xn = b . Entonces f tiene un único
spline cúbico natural en los nodos x0 , x1 , . . . , xn .

S  (xn )
Demostración. En este caso las condiciones de frontera significan que cn = 2 = 0 y que
0 = S  (x0 ) = 2c0 + 6d0 (x0 − x0 ) , luego c0 = 0 .
De las dos ecuaciones c0 = 0 y cn = 0 junto con las ecuaciones lineales (6.15) se tiene el
sistema de ecuaciones lineales Ax = b , donde A es la matriz (n + 1) × (n + 1) dada por

⎛ ⎞
1 0 0 0 ··· 0 0 0
⎜ ··· ⎟
⎜ h0 2(h0 + h1 ) h1 0 0 0 0 ⎟
⎜ ⎟
⎜ 0 h1 2(h1 + h2 ) h2 ··· 0 0 0 ⎟
A=⎜
⎜ .. .. .. .. .. .. .. .. ⎟

⎜ . . . . . . . . ⎟
⎜ ⎟
⎝ 0 0 0 0 ··· hn−2 2(hn−2 + hn−1 ) hn−1 ⎠
0 0 0 0 ··· 0 0 1

y los vectores b y x son dados por

⎛ ⎞
0 ⎛ ⎞
⎜ 3 3 ⎟ c0
⎜ h1 (a 2 − a 1 ) − − a0 )
h0 (a1 ⎟ ⎜ ⎟
⎜ .. ⎟ ⎜ c1 ⎟
⎜ ⎟ ⎜ ⎟
⎜ . ⎟ ⎜ .. ⎟
b=⎜ ⎟ y x=⎜ . ⎟
⎜ .. ⎟ ⎜ ⎟
⎜ . ⎟ ⎜ .. ⎟
⎜ 3 3 ⎟ ⎝ . ⎠
⎝ hn−1 (a n − a n−1 ) − hn−2 (a n−1 − a n−2 ) ⎠
cn
0

La matriz A es diagonal dominante, luego existe solución única c0 , c1 , . . . , cn del sistema.


Sergio Plaza 192

Teorema 6.2 Si f : [a, b] −→ R es derivable en a y b , y a = x0 < x1 < · · · < xn = b .


Entonces existe un único spline cúbico con las condiciones de frontera S  (a) = f  (a) y S  (b) =
f  (b) .

Demostración. Como f  (a) = S  (a) = S  (x0 ) = b0 . Tenemos,

1 hj
bj = (aj+1 − aj ) − (2cj + cj+1 ) (6.18)
hj 3

con j = 0 nos queda la ecuación

1 h0
b0 = f  (a) = (a1 − a0 ) − (2c0 + c1 )
h0 3

y de aquı́ obtenemos que

3
2h0 c0 + h0 c1 = (a1 − a0 ) − 3f  (a) .
h0

De modo análogo

f  (b) = bn = bn−1 + hn−1 (cn−1 + cn )

y con j − 1 la ecuación (6.18) nos da que

an − an−1 hn−1
f  (b) = − (2cn−1 + cn ) + hn−1 (cn−1 + cn )
hn−1 3

an − an−1 hn−1
= + (cn−1 + 2cn )
hn−1 3

y que

3
hn−1 cn−1 + 2hn−1 cn = 3f  (b) − (an − an−1 ) .
hn−1

El sistema de ecuaciones lineales (6.15) junto con las ecuaciones

3
2h0 c0 + h0 c1 = (a1 − a0 ) − 3f  (a)
h0
y

3
hn−1 cn−1 + 2hn−1 cn = 3f  (b) − (an − an−1 )
hn−1

determinan un sistema de ecuaciones lineales Ax = b , donde


Sergio Plaza 193

⎛ ⎞
2h0 h0 0 0 ··· 0 0 0
⎜ ··· ⎟
⎜ h0 2(h0 + h1 ) h1 0 0 0 0 ⎟
⎜ ⎟
⎜ 0 h1 2(h1 + h2 ) h2 ··· 0 0 0 ⎟
A=⎜
⎜ .. .. .. .. .. .. .. .. ⎟

⎜ . . . . . . . . ⎟
⎜ ⎟
⎝ 0 0 0 0 ··· hn−2 2(hn−2 + hn−1 ) hn−1 ⎠
0 0 0 0 ··· 0 hn−1 2hn−1

⎛ 3 ⎞
h0 (a1− a0 ) − 3f  (a) ⎛ ⎞
⎜ 3 3 ⎟ c0
⎜ h1 (a2 − a1 ) − h0 (a1 − a0 ) ⎟ ⎜ ⎟
⎜ .. ⎟ ⎜ ⎟ c1
⎜ ⎟ ⎜ ⎟
⎜ . ⎟ ⎜ ⎟ ..
b=⎜ .. ⎟ y x=⎜ ⎟ .
⎜ ⎟ ⎜ . ⎟
⎜ . ⎟ ⎜ . ⎟
⎜ 3 3 ⎟ ⎝ . ⎠
⎝ hn−1 (a n − a n−1 ) − hn−2 (a n−1 − a n−2 ⎠
)
3 cn
3f  (b) − hn−1 (an − an−1 )

La matriz A es diagonal dominante, luego existe solución única c0 , c1 , . . . , cn del sistema

6.2 Otra forma de construir spline cúbicos naturales


Sean zi = S  (xi ) , para 0  i  n . Sobre [xi , xi+1 ] , debemos tener que Si (x) es una
interpolación lineal y Si (xi ) = zi , Si (xi+1 ) = zi+1 . Luego podemos escribir
x − xi+1 x − xi
Si (x) = zi + zi+1 .
xi − xi+1 xi+1 − xi

Integrando S  (x) dos veces, obtenemos


zi zi+1
Si (x) = (xi+1 − x)3 + (x − xi )3 + cx + d (6.19)
6hi 6hi

donde hi = xi+1 − xi y c, d son las constantes de integración. Ahora, imponiendo las condi-
ciones

Si (xi ) = f (xi ) = yi
Si (xi+1 ) = yi+1 .

Obtenemos las ecuaciones

⎧ zi

⎪ h3i + cxi + d = yi
⎨ 6hi


⎩ h3 zi + cxi+1 + d = yi+1
i
6hi
yi+1 − yi (zi+1 − zi ) yi xi+1 − yi+1 xi xi zi+1 − xi+1 zi
de donde c = − hi y d = + hi .
hi 6 hi 6
Reemplazando en la ecuación (6.19) nos queda
Sergio Plaza 194

 
zi (x − xi )3 zi+1 (yi+1 − yi ) (zi+1 − zi )
Si (x) = (xi+1 − x)3 + + − hi x
6hi 6hi hi 6
yi xi+1 − yi+1 xi xi zi+1 − xi+1 zi
+ + hi (6.20)
hi 6

Para encontrar zi y zi+1 imponemos la condición Si−1 (xi ) = Si (xi ) .

Ahora, derivando (6.20) y reemplazando obtenemos

1 1
Si (xi ) = − hi zi − hi zi+1 + bi
3 6
y

 1 1
Si−1 (xi ) = hi−1 zi−1 + hi−1 zi + bi
6 3

imponiendo la condición Si−1 (xi ) = Si (xi ) nos queda

hi−1 zi−1 + 2(hi−1 + hi )zi + hi zi+1 = 6(bi − bi−1 ) , i = 1, . . . , n − 1

Para encontrar zi , (1  i  n − 1) , considerando que z0 = zn = 0 , se tiene un sistema de


ecuaciones, simétrico, tridiagonal, diagonal dominante, de la forma
⎛ ⎞
u1 h1 0 0 0 ··· 0
⎜ ··· ⎟⎛ ⎞ ⎛ ⎞
⎜ h1 u2 h2 0 0 0 ⎟ z1 v1
⎜ ··· ⎟⎜ ⎟ ⎜ ⎟
⎜ 0 h2 u3 h3 0 0 ⎟ ⎜ z2 ⎟ ⎜ v2 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. .. .. .. ⎟ ⎜ .. ⎟=⎜ .. ⎟
⎜ . . . . . . . ⎟⎜ . ⎟ ⎜ . ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. .. .. .. ⎟⎝ z ⎠ ⎝ vn−2 ⎠
⎜ . . . . . . . ⎟ n−2
⎜ ⎟
⎝ 0 0 ··· 0 hn−3 un−2 hn−2 ⎠ zn−1 vn−1
0 0 ··· 0 0 hn−2 un−1

donde


⎪ hi = ti+1 − ti







⎪ u = 2(hi + hi−1 )

⎨ i

⎪ 6

⎪ bi = (xi+1 − xi ), Sj (tj ) = xj

⎪ hi





vi = bi − bi−1

6.3 Ejercicios
Problema 6.1 Sea f : [a, b] −→ R un polinomio cúbico. Denote por S1 y S2 , los spline
cúbicos libre y sujeto determinados por f ¿S1 y S2 coinciden con f ? Justique su respuesta.
Sergio Plaza 195

Problema 6.2 Determine los valores de a , b y c de modo que la función


x3 , x ∈ [0, 1]
f (x) = 1 3 2
2 (x − 1) + a(x − 1) + b(x − 1) + c , x ∈ [1, 3]

es un spline cúbico.

Problema 6.3 Sea s(x) el spline cúbico natural con nodos (0, 2) , (1, 0) , (2, 3) y (3, 1) .
Suponga que


⎪ 11 5

⎪ 2 − x + x3 si 0x<1

⎪ 3 3




56 10
s(x) = 7 − x + 15x2 − x3 si 1x<2

⎪ 3 3






⎩ −33 + 124 x + Ax2 + Bx3 si 2x3
3
Encuentre A y B .

Problema 6.4 Si s(x) = 0 para x < 2 y s(x) = (x − 2)3 para x  2 ¿es s(x) un spline cúbico?
Justifique.

Problema 6.5 Suponga que


x3 + ax2 − 4x + c 0x2
s(x) =
−x3 + ax2 + bx + 34, 2x4

Encuentre las constantes a, b y c de modo que s(x) es dos veces continuamente derivable
en [0, 4] ¿Es s(x) para esas constantes un spline cúbico?

Problema 6.6 Sea


1 − x + ax2 + x3 si 0x1
s(x) =
3 + bx + cx2 − x3 si 1<x2

Determine a, b , y c de modo que s(x) sea un spline cúbico natural sobre el intervalo [0, 2]

1
Problema 6.7 Considere la función f : [−1, 1] −→ R dada por f (x) = . Usando
1 + 25x2
divisiones uniformes, calcule y grafique Ln (x) , para n = 2, 3, 4, . . . , 10 . Calcule y grafique
las interpolaciones por spline cúbicos naturales y libres (imponga las condiciones adecuadas en
cada caso) para esas subdivisiones. Grafique f (x) , Ln (x) y sn (x) . Compare ¿Cuál es su
conclusión?

Problema 6.8

Problema 6.9
Sergio Plaza 196

Problema 6.10

Problema 6.11

Problema 6.12

Problema 6.13

Problema 6.14
Capı́tulo 7

Ajuste de Curvas

7.1 Ajuste de curvas


Sean {x1 , x2 , . . . , xn } un conjunto de puntos, con x1 < x2 < · · · < xn , y sean {y1 , y2 , . . . , yn }
un conjunto de datos, es decir, tenemos los puntos (x1 , y1 ) , (x2 , y2 ), . . . , (xn , yn ) .
Problema 1 Determinar una función que relacione las variables.

En general esto no es posible hacer en forma exacta. Buscamos entonces una función f (x)
tal que

f (xk ) = yk + ek , (7.1)

donde ek es el error de medición.

Problema 2 Cómo encontramos la mejor aproximación, es decir, que pase lo más cerca posible
y no necesariamente sobre esos puntos? Para responder a esta pregunta, hay que considerar los
errores (los cuales son también llamados desviaciones o residuos).

Para ello debemos encontrar f (x) tal que

ek = f (xk ) − yk , 1  k  n, (7.2)

donde ek son llamados errores o desviaciones o residuos, sean en algún sentido “pequeños”.
Existen varias formas que pueden usarse en (7.2) para medir la distancia entre la curva
y = f (x) y los datos.

a) Error máximo
E∞ (f ) = max{|f (xk ) − yk | : 1  k  n} .

b) Error medio
1-
n
E1 (f ) = |f (xk ) − yk | .
n
k=1

197
Sergio Plaza 198

c) Error medio cuadrático


$ %1/2
1-
n
E2 (f ) = |f (xk ) − yk |2 .
n
k=1

Observación. Minimizar E2 (f ) equivale a minimizar

1-
n
E2 (f )2 = |f (xk ) − yk |2 ,
n
k=1

y esto equivale a minimizar

-
n
F (f ) = |f (xk ) − yk |2 .
k=1

Ejemplo 67 consideremos la función y = f (x) = 8.6 − 1.6x y el conjunto de a ajustar datos


(−1, 10), (0, 9), (1, 7), (2, 5), (3, 4), (4, 3), (5, 0), (6, −1). Tenemos ek = f (xk ) − yk . Luego

E∞ (f ) = max{0.2, 0.4, 0, 0.4, 0.2, 0.8, 0.6, 0} = 0.8

1
E1 (f ) = × 2.6 ≈ 0.325
8
 1/2
14
E2 (f ) = ≈ 0.4183300133 .
8

7.2 Ajuste por rectas: recta de regresión


En este caso, tenemos los datos

{(xk , yk )}nk=1 , con x1 < x2 < · · · < xn .

La recta de regresión o recta óptima, en el sentido de los mı́nimos cuadrados es la recta de


ecuación y = f (x) = Ax + B que minimiza el error cuadrático medio E2 (f ) .
Problema 3 Determinar A y B .
Tenemos y = Ax + B y sea dk = distancia entre (xk , yk ) y (xk , Axk + B)
DIBUJO

Esta distancia es

dk = |Axk + B − yk | .

-
n -
n
Sea E(A, B) = (Axk + B − yk )2 = d2k .
k=1 k=1
Sergio Plaza 199

Problema 4 Determinar el valor mı́nimo de E(A, B) .


Para esto, debemos resolver las ecuaciones




∂E

⎨ ∂A = 0




⎩ ∂E = 0,
∂B
llamadas ecuaciones normales de Gauss. Tenemos

∂E -
n -
n
= 2(Axk + B − yk )xk = 2(Ax2k + Bxk − xk yk ) ,
∂A
k=1 k=1

∂E
luego = 0 si y sólo si
∂A
$ % $ %
-
n -
n -
n
x2k A+ xk B= xk yk .
k=1 k=1 k=1

Ahora

∂E - n
= 2(Axk + B − yk ) = 0
∂B
k=1

si y sólo si

$ %
-
n -
n
xk A + nB = yk
k=1 k=1

Ejemplo 68 Hacer el que esta antes.

7.3 Ajuste potencial y = AxM


En este caso, buscamos una curva de ajuste de la forma y = AxM , donde M es una constante
conocida.
Como antes, sea

-
n
2
E(A) = k − yk ) .
(AxM
k=1

∂E
Debemos resolver = 0 . Tenemos
∂A
Sergio Plaza 200

∂E -
n

k − yk )xk
2(AxM M
=
∂A
k=1

-
n
= 2 Ax2M
k − xM
2 yk .
k=1

∂E
Luego, = 0 si y sólo si
∂A
-
n -
n
A x2M
k = xM
k yk ,
k=1 k=1

es decir,
-
n <-
n
A= xM
k yk x2M
k ,
k=1 k=1

Ejemplo 69 Consideremos la siguiente tabla de datos

xk yk
−1 10
0 9
1 7
2 5
3 4
4 3
5 0
6 −1

y el exponente M = 2 . Es dejado al lector realizar los cálculos numéricos.

7.4 Ajuste con curvas del tipo y = CeAx , con C > 0


En este caso, tenemos que y = CeAx . Tomando logarı́tmo natural nos queda ln(y) = Ax +
ln(C) , lo cual puede ser escrito en la forma Y = AX + B , donde


⎨ X = x
B = ln(C)

Y = ln(y)

y el problema se transforma en

Y = Ax + B .

Este es llamado métodos de linealización de datos.


Dados (xk , yk ) , tenemos
Sergio Plaza 201

(Xk , Yk ) = (xk , ln(yk ))

y las ecuaciones normales de Gauss son

$ % $ %
-
n -
n -
n
Xk2 A+ Xk B = Xk Yk
k=1 k=1 k=1

$ %
-
n -
n
Xk A + nB = Yk .
k=1 k=1

Una vez calculados A y B , se obtiene C = eB .

Ejemplo 70 Encontrar la curva de ajuste de la forma y = CeAx , para los datos (0, 1.5) ,
(1, 1.25) , (2, 3.5) , (3.5) , (4, 7.5) .

7.5 Método no lineal de los mı́nimos cuadrados para y =


CeAx
Este consiste en encontrar el mı́nimo de la función

-
n
E(A, C) = (CeAxk − yk )2 .
k=1

Tenemos

∂E -
n
= 2(CeAxk − yk )Cxk eAxk = 0
∂A
k=1

∂E -
n
= 2(CeAxk − yk )eAxk = 0
∂C
k=1

de donde,


⎪ -
n -n

⎪ 2Axk
− xk yk eAxk

⎪ C xk e = 0

⎨ k=1 k=1


⎪ - -


n n

⎪ C e2Axk − yk eAxk = 0.

k=1 k=1

Estas son ecuaciones no lineales en A y C , y se pueden resolver, por ejemplo, usando Newton
en varias variables.
Sergio Plaza 202

7.6 Combinaciones lineales en mı́nimos cuadrados


En este caso, nos son dados los datos {fj (x)}m
j=1 .

Problema. Encontrar los coeficientes {cj }m


j=1 tal que la función f (x) definida por

-
m
f (x) = cj fj (x)
j=1

minimice la suma de los cuadrados de los errores.


Tenemos

⎛⎛ ⎞ ⎞2
-
n -
n -
m
E(c1 , c2 , . . . , cm ) = (f (xk ) − yk )2 = ⎝⎝ cj fj (xk )⎠ − yk ⎠ .
k=1 k=1 j=1

Para minimizar, debemos resolver las ecuaciones

∂E
= 0 , i = 1, . . . , m .
∂ci

Tenemos

⎛⎛ ⎞ ⎞
∂E -
n -m
= 2 ⎝⎝ cj fj (xk )⎠ − yk ⎠ fi (xk ) = 0 , i = 1, . . . , m
∂ci j=1
k=1

lo cual nos da el siguiente sistema de ecuaciones lineales

$ n %
-
m - -
n
fi (xk )fj (xk ) cj = fi (xk )yk , i = 1, 2, . . . , m .
j=1 k=1 k=1

Esto lo podemos escribir de otra forma, introduciendo notación matricial, para ello definimos

⎡ ⎤
f1 (x1 ) f2 (x1 ) · · · fm (x1 )
⎢ f1 (x2 ) f2 (x2 ) · · · fm (x2 ) ⎥
⎢ ⎥
F =⎢ .. .. .. .. ⎥
⎣ . . . . ⎦
f1 (xn ) f2 (xn ) · · · fm (xn ) n×m

⎡ ⎤
f1 (x1 ) f1 (x2 ) · · · f1 (xn )
⎢ f2 (x1 ) f2 (x2 ) · · · f2 (xn ) ⎥
⎢ ⎥
FT = ⎢ .. .. .. .. ⎥
⎣ . . . . ⎦
fm (x1 ) fm (x2 ) · · · fm (xn ) m×n
Sergio Plaza 203

⎛ ⎞
y1
⎜ y2 ⎟
⎜ ⎟
Y =⎜ .. ⎟.
⎝ . ⎠
yn

El elemento de la i–ésima fila del producto F T Y coincide con el i–ésimo elemento de la


matriz columna que contiene los términos independientes en el sistema, esto es,

⎛ ⎞⎞ ⎛
y1
-
n
⎜ ⎜ ⎟⎟
fi (xk )yk = filai ⎝F T ⎝ ... ⎠⎠ .
k=1
yn

Ahora, el producto F T F es una mariz m × m . El elemento (i, j) de F T F coincide con el


coeficiente cj en la i–ésima ecuación del sistema, esto es,

-
n
fi (xk )fj (xk ) = fi (x1 )fj (x1 ) + fi (x2 )fj (x2 ) + · · · + fi (xn )fj (xn ) .
k=1

Luego el problema se reduce a resolver el sistema de ecuaciones lineales

FTFC = FTY

cuya incógnita es C .

7.7 Ajuste polonomial


Este es un caso particular del anterior, pues si

f (x) = c1 + c2 x + · · · + cn+1 xn

entonces f se obtiene como combinación lineal de las funciones linealmente independiente


j=1 = {x
{fj (x)}n+1 }j=1 .
j−1 n+1

Ejemplo 71 Parábola óptima para mı́nimos cuadrados.


En este caso, nos son dados los datos {(xk , yk )}nk=1 y buscamos una curva de asjuste de la
forma y = f (x) = Ax2 + B + C .

Problema. Determinar los coeficientes A, B y C .

Sea

-
n
E(A, B, C) = (Ax2k + Bxk + C − yk )2 .
k=1
Sergio Plaza 204

Para minimizar, debemos resolver las ecuaciones



∂E -
n

(Ax2k + Bxk + C − yk )x2k ⎪

0 = = 2 ⎪

∂A ⎪

k=1 ⎪





∂E -
n ⎬
0 = = 2 (Ax2k + Bxk + C − yk )xk
∂B ⎪

k=1 ⎪





-
n ⎪

∂E ⎪

0 = = 2 (Ax2k + Bxk + C − yk ) ⎪

∂C
k=1

esto es,
$ % $ % $ %
-
n -
n -
n -
n
x4k A+ x3k B+ x2k C = yk x2k
k=1 k=1 k=1 k=1

$ % $ % $ %
-
n -
n -
n -
n
x3k A+ x2k B+ xk C = xk yk
k=1 k=1 k=1 k=1

$ % $ %
-
n -
n -
n
x2k A+ xk B + nC = yk .
k=1 k=1 k=1
Capı́tulo 8

Integración Numérica

En el Capı́tulo sobre Interpolación hemos deducidos las fórmulas de la regla de los Trapecios y
la de Simpson.
Sean x0 < x1 < · · · < xn puntos dados y sea f : [x0 , xn ] −→ R una función suficientemente
diferenciable. Una fórmula del tipo
 xn
f (x) = Q[f ] + E[f ] , (8.1)
x0

donde
-
n
Q[f ] = ωk f (xk ) (8.2)
k=0

es llamada una fórmula de cuadratura o de integración numérica, Q[f ] es llamada cuadratura y


E[f ] es el error de truncamiento de la fórmula. Los puntos xi ( i = 0, . . . , n ) son llamados los
nodo de la cuadratura y los números ωi son llamados los pesos de la cuadratura. Por ejemplo,

las fórmulas de los trapecios, de Simpsons, de Simpson 38 , las de Newton–Cote, y muchas
otras fórmulas de cuadratura pueden ser encontradas en textos de métodos numéricos.
El grado de presición de una fórmula de cuadratura como (8.1) es el menor número natural
n , tal que E(Pi ) = 0 para todo polinomio de grado menor o igual que n y existe un polinomio
Pn+1 de grado n + 1 tal que E[Pn+1 ] = 0 .
Ejemplos.

1. Fórmula de los trapecios simple. Esta es dada por


 x1
h h3 
f (x)dx = [f (x0 ) + f (x1 )] − f (c) ,
x0 2 12

donde h = x1 − x0 y c ∈ ]x0 , x1 [ . En este caso, tenemos los pesos ω0 = ω1 = h


2 , los
3
nodos son x0 y x1 , luego Q[f ] = h2 f (x0 ) + h2 f (x1 ) y E[f ] = − h12 f  (c) .
Esta fórmula de cuadratura tiene grado de precisión igual a 1 si f  es continua.

2. Regla de Simpson simple. Esta fórmula de cuadratura es dada por


 x2
h h5 (4)
f (x) = [f (x0 ) + 4f (x1 ) + f (x2 )] − f (c)
x0 3 90

205
Sergio Plaza 206

donde c ∈ ]x0 , x2 [ y h = x2 − x1 = x1 − x0 (paso constante). En este caso, los nodos son


x0 < x1 < x2 , y los pesos son ω0 = ω2 = h3 y ω1 = 4h h 4h
3 , luego Q[f ] = 3 f (x0 )+ 3 f (x1 )+
5
(4)
3 f (x2 ) y E[f ] = − 90 f
h h
(c) . Esta fórmula de cuadratura tiene grado de presición 3 si
(4)
f es continua.

3. Regla de Simpson 38 simple. En esta fórmula de cuadratura tomamos los nodos x0 <
x1 < x2 < x3 , considerando paso constante h = xi+1 − xi y los pesos ω0 = ω3 = 3h 8 ,
9h
ω1 = ω2 = 8 , se tiene la fórmula de cuadratura
 x3
3 3 5 (4)
f (x)dx = h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] − h f (c)
x0 8    80  
Q[f ] E[f ]

donde c ∈ ]x0 , x3 [ , la cual tiene grado de presición 3 si f (4) es continua.

4. Regla de Boole simple. Esta fórmula de cuadratura es dada como sigue. Tomamos los
nodos x0 < x1 < x2 < x3 < x4 , con paso constante h = xi+1 − xi , y los pesos
ω0 = ω4 = 14 64 24
45 h , ω1 = ω3 = 45 h y ω2 = 45 h . La regla de Boole es dada entonces por
 x4
2 8 7 (6)
f (x)dx = h [7f (x0 ) + 32f (x1 ) + 12f (x2 ) + 32f (x3 ) + 7f (x4 )] − h f (c) ,
x0 45
    945  
Q[f ] E[f ]

con c ∈ ]x0 , x4 [ . Esta fórmula de cuadratura tiene grado de presición5 si f (6) es continua.

8.1 Regla de los trapecios


Ya vimos que la regla de los Trapecios simple viene dada por
 xj+1
hj h3j
f (x) = (f (xj ) + f (xj+1 )) − f  (ξj ) , (8.3)
xj 2 12

donde hj = xj+1 − xj y ξj ∈ ]xj , xj+1 [ .

(x 1 ,y 1 ) (x 2 ,y 2 )
(x 0,y 0) (x 3 ,y 3 )

y = f(x)

x0 x1 x2 x3 x

Ahora, si tenemos los nodos x0 < x1 < · · · < xn , con paso hj = xj+1 − xj y queremos
aproximar el valor de  xn
f (x)dx
x0
c b c
usando el hecho que a f (x)dx = a f (x)dx + b f (x)dx , integramos sobre los subintervalos
[xj , xj+1 ] , para j = 0, 1, . . . , n − 1 y aplicando la fórmula de los trapecios simples, obtenemos
Sergio Plaza 207

 xn -  xj+1
n−1 -
n−1 - h3j
n−1
hj
f (x) = f (x) = (f (xj ) + f (xj+1 )) − f  (ξj ) , (8.4)
x0 j=0 xj j=0
2 j=0
12
     
Q[f ] Etotal error total

donde ξj ∈ ]xj , xj+1 [ .


-
n−1
h3j 
Analicemos el error total Etotal = − f (ξj ) . Si consideramos paso constante h = hj
j=0
12
para j = 0, 1, . . . , n − 1 , y f  (x) continua, entonces obtenemos

h3 - 
n−1
Etotal = − f (ξj ) , ξj ∈ ]xj , xj+1 [
12 j=0
h3
= − n f  (ξ) , ξ ∈ ]x0 , xn [
12
h2 xn − x0
= − nh f  (ξ) , como h =
12 n
h2
= − (xn − x0 )f  (ξ) .
12

Luego, en el caso de paso constante h , tenemos la fórmula

 xn
h h2
f (x) = [f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )] − (xn − x0 )f  (ξ) , (8.5)
x0 2   12  
Q[f ] E[f ]

la cual es llamada Regla de los trapecios compuesta.

8.2 Regla de Simpson


Falta dibujos
Para obtener la regla de Simpson simple, suponemos por simplicidad, que tenemos los nodos
x0 < x1 < x2 y el paso h = x2 − x1 = x1 − x0 es constante. Integrando el polinomio de
Lagrange de grado 2, que interpola a f en esos tres nodos, obtenemos
 x2
h h5 (4)
f (x) = [f (x0 ) + 4f (x1 ) + f (x2 )] − f (c) (8.6)
x0 3 90

donde c ∈ ]x0 , x4 [ .
Ahora si tenemos los nodos x0 < x1 < · · · < xn , como antes suponemos que tenemos paso
constante h = xk+1 − xk , integrando en cada subintervalo de la forma [xj , xj+2 ] , tenemos
 xj+2
h h5
f (x) = (f (xj ) + 4f (xj+1 ) + f (xj+2 )) − f (4) (θj ) , (8.7)
xj 3 90
Sergio Plaza 208

donde θj ∈ ]xj , xj+2 [ . Ahora, como


 xn  x2  x4  xn
f (x)dx = f (x)dx + f (x)dx + · · · + f (x)dx ,
x0 x0 x2 xn−2

note que n debe ser par y n  2 . De esto, tenemos

 xn
h
f (x)dx = [(f (x0 ) + 4f (x1 ) + f (x2 )) + (f (x2 ) + 4f (x3 ) + f (x4 )) + · · ·
x0 3
h5 n (4)
+(f (xn−2 ) + 4f (xn−1 ) + f (xn ))] − f (θ) ,
90 2

con θ ∈ ]x0 , xn [ . Reordenando, nos queda

⎛ ⎞
 n−2
-
n−2
-
xn
h⎝ 2 2
(xn − x0 ) (4)
f (x)dx = f (x0 ) + f (xn ) + 4 f (x2j−1 ) + 2 f (x2j )⎠ − h4 f (θ) .
x0 3 j=1 j=1  180 
   E[f ]
E[f ]
(8.8)
Esta es la regla de Simpson compuesta.

8.3 Regla de Simpson ( 38 )


Consideramos paso constante h = xj+1 − xj . Sea Pj (x) el polinomio de interpolación de
Lagrange con nodos xj , xj+1 , xj+2 y xj+3 , con paso h constante. Tenemos
 xj+3  xj+3
3
f (x)dx ≈ Pj (x)dx ≈ h [f (xj ) + 3f (xj+1 ) + 3f (xj+2 ) + f (xj+3 )] , (8.9)
xj xj 8

esta es la regla de Simpson 38 simple.
Ahora, como
 xn  x3  x6  xn
f (x)dx = f (x)dx + f (x)dx + · · · + f (x)dx ,
x0 x0 x3 xn−3

notemos que n = 3m y m  1 . Reordenando, obtenemos

⎛ ⎞
 xn
n−3
-3
n−3
-3
n−3
-3
3 ⎝
f (x)dx ≈ h f (x0 ) + f (xn ) + 3 f (x3j+1 ) + 3 f (x3j+2 ) + 2 f (x3j+3 )⎠ , (8.10)
x0 8 j=0 j=0 j=0

esta es la regla de Simpson ( 38 ), cuyo error es dado por

(xn − x0 )5 (4)
E[f ] = −
f (θ) , (8.11)
6480
donde θ ∈ ]x0 , xn [ . Las reglas de los trapecios y la de Simpson pertenecen a una clase de
métodos para aproximar integrales, llamadas fórmulas de Newton–Cotes.
Sergio Plaza 209

8.4 Fórmulas de Newton–Cotes cerradas de (n+1) puntos


Notemos que para obtener la fórmula de la regla de los trapecios integramos el polinomio de
interpolación de Lagrange de grado 1 entre los puntos xj y xj+1 , para obtener la fórmula de
la regla ed Simpson integramos el polinomio de interpolación de Lagrange de grado 2 entre los
puntos xj , xj+1 y xj+2 , para la regla de Simpson 38 integramos el polinomio de interpolación
de Lagrange de grado 3 entre los puntos xj , xj+1 , xj+2 y xj+3 . Para otras fórmulas podemos
continuar integrando el polinomio de interpolación de Lagrange, digamos de grado k , entre los
puntos xj , . . . , xj+k .
Las fórmulas de Newton–Cotes cerradas de (n + 1) puntos utilizan nodos xj = x0 + jh ,
j = 0, 1, . . . , n , h = b−a
n , x0 = a y xn = b . Son llamadas cerradas pues incluyen los extremos
x0 y xn . Ellas tienen la forma
 xn -
n
f (x)dx ≈ An,j f (xj ) ,
x0 j=0

donde  
xn xn 4
n
(x − xk )
An,j = Ln,j (x)dx = ,
x0 x0 k =0
(xj − xk )
k = j

son obtenidas integrando el polinomio de Lagrange de grado n , que recordemos es dado por
-
n
Ln (x) = f (xj )Ln,j (x) ,
j=0

4
n
x − xi
donde Ln,j = , que interpola a f en los nodos x0 < x1 < · · · < xn
i =0
xj − xi
i = j

n
Teorema 8.1 Denotemos por j=0 Aj f (xj ) la fórmula de Newton–Cotes cerrada de (n + 1)
n . Entonces existe θ ∈ ]a, b[ , tal que
puntos, con x0 = a , xn = b y h = b−a
 b -
n  n
hn+3 (n+2)
(α) f (x)dx = Aj f (xj ) + f (θ) t2 (t − 1) · · · (t − n)dt ,
a j=0
(n + 2)! 0

si n es par y f es n + 2 veces derivable en [a, b] y f (n+2) (x) es continua.


 b -n  n
hn+2 (n+1)
(β) f (x)dx = Aj f (xj ) + f (θ) t(t − 1) · · · (t − n)dt ,
a j=0
(n + 1)! 0

si n es impar y f es n + 1 veces derivable en [a, b] y f (n+1) (x) es continua.

8.5 Fórmulas abiertas de Newton–Cotes


b−a
Estas usan nodos xj = x0 + jh , j = 0, 1, . . . , n , donde h = n+2 y x0 = a + h . Luego
xn = b − h . Marcamos los extremos x−1 = a y xn+1 = b y tenemos

 b  xn+1 -
n
f (x)dx = f (x)dx ≈ Aj f (xj ) ,
a x−1 j=0
Sergio Plaza 210

 b
donde Aj = Ln,j (x)dx .
a
Con las notaciones anteriores, tenemos que existe θ ∈ ]a, b[ tal que

 b -
n  n
hn+3 (n+2)
(α ) f (x)dx = Aj f (xj ) + f (θ) t2 (t − 1) · · · (t − n)dt ,
a j=0
(n + 2)! −1

si n es par y f es n + 2 veces derivable en [a, b] y f (n+2) (x) es continua.


 b -
n  n
 hn+2 (n+1)
(β ) f (x)dx = Aj f (xj ) + f (θ) t(t − 1) · · · (t − n)dt ,
a j=0
(n + 1)! −1

si n es impar y f es n + 1 veces derivable en [a, b] y f (n+1) (x) es continua.

Por ejemplo,
 x1 h3 
n = 0, x−1
f (x) = 2hf (x0 ) + 3 f (θ) , x−1 < θ < x1 ,
 x2 3h
n = 1, x−1
f (x) = 2 (f (x0 ) + f (x1 )) + 34 h3 f  (θ) , x−1 < θ < x2 ,

8.6 Integración de Romberg


b
Comenzamos por obtener aproximaciones para a f (x) usando la regla de los trapecios con
mj nodos, m1 = 1 , m2 = 2 , . . . , mj = 2j−1 . Los valores del paso hj correspondiente a mj
son dados por hj = b−a b−a
mj = 2j−1 . Luego, tenemos

⎛ ⎞
 2j−1
-−1
b
hj ⎝ (b − a) 2 
f (x) = f (a) + f (b) + 2 f (a + ihj )⎠ − hj f (θj ) , (8.12)
a 2 i=1
12

donde θj ∈ ]a, b[ .
Usando la notación

h1 b−a
R1,1 = (f (a) + f (b)) = (f (a) + f (b))
2 2

h2
R2,1 = (f (a) + f (b) + 2f (a + h2 ))
2   
b−a b−a
= f (a) + f (b) + 2f a +
4 2
1
= (R1,1 + h1 f (a + h2 ))
2

En general,
⎛ j−2

2-
1⎝
Rj,1 = Rj−1,1 + hj−1 f (a + (2i − 1)hj )⎠
2 i=0
Sergio Plaza 211

j = 2, 3, . . . , n . Tenemos

 b ∞
-
f (x) − Rj,1 = K1 h2j + Ki h2i
j ,
a i=2

donde Ki para cada i es independiente de hj .


También tenemos las relaciones

Rk,j−1 − Rk−1,j−1
Rk,j = Rk,j−1 +
4j−1 − 1

k = 2, . . . , n y j = 2, . . . , k .
Estos resultados pueden tabularse como

R1,1
R2,1 R2,2
R3,1 R3,2 R3,3
.. .. .. ..
. . . .
Rn,1 Rn,2 Rn,3 ··· Rn,n

b
a
f (x)

8.7 Cuadratura gaussiana


Queremos aproximar el valor de

 b
f (x) .
a

Haciendo el cambio de variable x = 12 ((b − a)t + (a + b)) tenemos que

  1  
b
(b − a)t + (b + a) b−a
f (x)dx = f dt
a −1 2 2

por lo tanto buscamos un método para obtener aproximaciones a una integral del tipo

 1
f (x)dx .
−1

Aquı́ se trata de determinar constantes c1 y c2 y valores x1 y x2 de modo que

 1
f (x) ≈ c1 f (x1 ) + c2 f (x2 ) , (8.13)
−1

y el resultado sea exacto cuando f (x) es un polinomio de grado menor o igual que 3.
Escribamos f (x) = a0 + a1 x + a2 x2 + a3 x3 . Tenemos entonces
Sergio Plaza 212

    
f (x) = a0 1 + a1 x + a2 x2 + a3 x3 ,

luego necesitamos c1 , c2 , x1 y x2 tales que

 1
c1 · 1 + c2 · 1 = 1=2
−1
 1
c1 x1 + c2 x2 = x=0
−1
 1
2
c1 x21 + c2 x22 = x2 =
−1 3
 1
c1 x31 + c2 x32 = x3 = 0
−1
√ √
3 3
resolviendo esas ecuaciones obtenemos c1 = 1 , c2 = 1 , x1 = − 3 y x2 = 3 . Luego

 $ √ % $√ %
1
3 3
f (x) ≈ f − +f .
−1 3 3

En general, el problema es resuelto considerando los polinomios de Legendre {P0 (x), P1 (x), . . .} .
Estos son polinomios que satisfacen

1. Pn (x) es un polinomio de grado n , n = 0, 1, . . . .


 1
2. P (x)Pn (x)dx = 0 cuando P (x) es un polinomio de grado menor que n .
−1

Los primeros polinomios de Legendre son

P0 (x) = 1
P1 (x) = x
1
P2 (x) = x2 −
3
3
P3 (x) = x3 − x
5
..
.

Tenemos el siguiente teorema

Teorema 8.2 Supongamos que x1 , x2 , . . . , xn son las raı́ces del polinomio de Legendre Pn (x)
y que los números ci son dados por

 1 4
n
x − xj
ci = dx , i = 1, 2, . . . , n
−1 j =1
xi − xj
j = i
Sergio Plaza 213

Si P (x) es un polinomio de grado menor que 2n . Entonces

 1 -
n
P (x) = ci P (xi ) .
−1 i=1

8.8 Ejemplos resueltos

Ejemplo 72 Considere la siguiente tabla de valores

x 0 1 2 3 4 5 6
f (x) 5 4 1 −1 −1 0 3

a) Encuentre la interpolación de Lagrange L6 (x) de esos datos. Usando el método de New-


ton, encuentre una aproximación para la raı́z de L6 (x) en el intervalo [2, 3].

b) Usando la integración numérica de Simpson, y también integrando L6 (x) directamente,


6
obtenga aproximaciones para 0 f (x)dx.

Solución.

a) Tenemos que L6 (x) = L6,0 (x)y0 +L6,1 (x)y1 +L6,2 (x)y2 +L6,3 (x)y3 +L6,4 (x)y4 +L6,5 (x)y5 +
L6,6 (x)y6 , donde

(x − 1)(x − 2)(x − 3)(x − 4)(x − 5)(x − 6)


L6,0 (x) =
720
1 6 7 5 35 4 49 3 203 2 49
= x − x + x − x + x − x+1
720 240 144 48 90 20

x(x − 2)(x − 3)(x − 4)(x − 5)(x − 6)


L6,1 (x) = −
120
1 6 1 5 31 4 29 3 87 2
= − x + x − x + x − x +6x
120 6 24 6 10

x(x − 1)(x − 3)(x − 4)(x − 5)(x − 6)


L6,2 (x) =
48
1 6 19 5 137 4 461 3 117 2 15
= x − x + x − x + x − x
48 48 48 48 8 2
Sergio Plaza 214

x(x − 1)(x − 2)(x − 4)(x − 5)(x − 6)


L6,3 (x) = −
36
1 6 1 5 121 4 31 3 127 2 20
= − x + x − x + x − x + x
36 2 36 3 9 3

x(x − 1)(x − 2)(x − 3)(x − 5)(x − 6)


L6,4 (x) =
48
1 6 17 5 107 4 307 3 33 2 15
= x − x + x − x + x − x
48 48 48 48 4 4

x(x − 1)(x − 2)(x − 3)(x − 4)(x − 6)


L6,5 (x) = −
120
1 6 2 5 19 4 13 3 27 2 6
= − x + x − x + x − x + x
120 15 24 6 10 5

x(x − 1)(x − 2)(x − 3)(x − 4)(x − 5)


L6,6 (x) =
720
1 6 1 5 17 4 5 3 137 2 1
= x − x + x − x + x − x
720 48 144 16 360 6

Ahora, es fácil que ver el polinomio de Lagrange es dado por


5 1 7 4 1 5 1 6 341 2
L6 (x) = 5 + x − x3 + x − x + x − x
6 4 18 12 180 180
y de aquı́ tenemos que la transformación de Newton de L6 (x) es dada por

5 1 7 4 1 5 1 6 341 2
5+ x − x3 + x − x + x − x
N( x ) = x − 6 4 18 12 180 180
5 3 2 14 3 5 4 1 5 341
− x + x − x + x − x
6 4 9 12 30 90
Comenzando la busqueda de la raı́z en x0 = 2 la convergencia es rápida y la raı́z buscada
es aproximadamente igual a x̄ = 2, 37 , y L6 (x̄) = 0, 0096448 . (Obviamente podemos
obtener una mejor aproximación, pero eso sólo implica más iteraciones).
b
b) La fórmula de integración de Simpson es a f (x)dx ≈ h3 (f0 + 4f1 + 2f2 + 4f3 + 2f4 +
· · · + 2fn−2 + 4fn−1 + fn ), donde fi = f (xi ) = yi , y h = b−a
n . En nuestro caso, h = 1 y
6
tenemos 0 f (x)dx ≈ (5 + 4 · 4 + 2 · 1 + 4 · −1 + 2 · −1 + 4 · 0 + 3)/3 = 20/3 = 6, 66666....
Por otra parte, tenemos que

5 1 7 4 1 5 1 6 341 2
L6 (x) = 5 + x − x3 + x − x + x − x
6 4 18 12 180 180
integrando, obtenemos

 6  6
f (x)dx ≈ L6 (x)dx = 6, 571428571
0 0
Sergio Plaza 215

Ejemplo 73 Considere la siguiente tabla de valores

k xk f (xk ) f  (xk )
0 1 5 −2
1 2 −1 −1
2 3 3 4

a) Encuentre la aproximación de Hermite H5 (x) de esos datos. Usando el método de Newton,


encuentre una raı́z de H5 (x).
3
b) Usando la regla de los trapecios, y también integrando directamente 1 H5 (x)dx, calcular
3
aproximaciones de 1 f (x)dx.

Solución

a) Tenemos que

(x − 2)(x − 3) x2 5x
L2,0 (x) = = − +3
(1 − 2)(1 − 3) 2 2
5
L2,0 (x) = x−
2

(x − 1)(x − 3)
L2,1 (x) = = −x2 + 4x − 3
(2 − 1)(2 − 3)

L2,1 (x) = −2x + 4

(x − 1)(x − 2) x2 3x
L2,2 (x) = = − +1
(3 − 1)(3 − 2) 2 2
3
L2,2 (x) = x−
2

Ahora, como Hn,j (x) = (1 − 2(x − xj )Ln,j (xj ))(Ln,j (x))2 tenemos

 2
1 2 5
H2,0 ( x ) = (3x − 2) x − x+3
2 2
3 5 131 3 127 2
= x − 8 x4 + x − x + 57 x − 18
4 4 2
 2
1 2 5
Ĥ2,0 (x) = (x − 1) x − x+3
2 2
1 5 11 4 47 3 97 2
= x − x + x − x + 24 x − 9
4 4 4 4
Sergio Plaza 216

H2,1 (x) = ( −x2 + 4 x − 3 )2

= x4 − 8x3 + 22x2 − 24x + 9

Ĥ2,1 ( x ) = ( x − 2 ) ( −x2 + 4 x − 3 )2

= x5 − 10 x4 + 38 x3 − 68 x2 + 57 x − 18

 2
1 2 3
H2,2 ( x ) = (x − 8) x − x+1
2 2
1 5 7 4 61 3
= x − x + x − 29 x2 + 25 x − 8
4 2 4
 2
1 2 3
Ĥ2,2 ( x ) = ( 10 − 3x ) x − x+1
2 2
1 5 9 4 31 3 51 2
= x − x + x − x + 10 x − 3
4 4 4 4

Luego el polinomio de Hermite aproximando los datos es

27x4 299x
H5 (x) = x5 − + 67x3 − + 145x − 45
2 2

La transformada de Newton de H5 (x) es

299 2 27 4
−45 + 145 x + x5 − x + 67 x3 − x
N( x ) = x − 2 2
4 2
145 + 5 x − 299 x + 201 x − 54 x3

Comenzando la busqueda de la raı́z con x0 = 1.6 la convergencia es rápida y el valor


aproximado de la raı́z es x̄ = 1.71, el correspondiente valor H5 (1.71) = −0.0026091. Otra
alternativa es comenzar con x0 = 2.4 obtenemos la raı́z x̃ = 2.44 , el correspondiente valor
H5 (2.44) = −0.002691.

b) Calculando

 3  3
145 2 1 6 299 3 67 4 27 5 3
f (x)dx ≈ H2 (x)dx = −45 x+ x + x − x + x − x |1 = 2, 266666667
1 1 2 6 6 4 10

Por la regla de los trapecios nos queda

 3
5 − 1 −1 + 3
f (x)dx ≈ + =3
1 2 2
Sergio Plaza 217

8.9 Ejercicios
1
Problema 8.1 Sea f (x) = 1+e−x sen(4x) . Aproxime el valor de la integral 0 f (x)dx , usando

1. la regla de los trapecios simple,

2. Regla de Simpson simple,

3. Regla de Simpson ( 38 ) simple

4. Regla de Boole simple.

Compare los resultados obtenidos en cada aproximación con el resultado exacto de la integral
 1
21e − 4 cos(4) − sen(4)
f (x)dx = ≈ 1.3082506046426 . . .
0 17e

Problema 8.2 Deduzca la fórmula del punto medio simple para aproximar integrales, la cual
es dada por  
 b
a+b
f (x)dx ≈ (b − a) f (8.14)
a 2

Usando esta fórmula, deduzca la fórmula del punto medio compuesta para aproximar el
x
valor de la integral x0n f (x)dx , usando los nodos x0 < x1 < · · · < xn , con paso constante
h = xj+1 − xj , la cual es dada por
 -
n
xn
xn − x0 2 
f (x)dx = h f (x̄k ) − h f (α) (8.15)
x0 24
k=1

xk−1 +xk
donde x̄k = 2 y α ∈ ]x0 , xn [ .

Problema 8.3 Se desea calcular una aproximación al valor de π = 3.1415926535897932384626433832 . . ..


Sabemos que
 1
1
π=4 dx .
0 1 + x2
Use la regla de Simpson con n = 10 para obtener una aproximación al valor de π dado
arriba.

Problema 8.4 Para calcular las integrales


 1
En = xn ex−1 dx , n = 1, 2, . . . ,
0

podemos usar integración por partes


 1 

n x−1
1
1
n x−1
x e dx = x e 0
− nxn−1 ex−1 dx
0 0

con lo que obtenemos el siguiente algoritmo numérico

En = 1 − nEn−1 , n = 2, 3, . . . ,

donde E1 = 1/e .
Sergio Plaza 218

1. Es este algoritmo convergente?

2. Es numéricamente estable?

3. Usando cuadratura gaussiana de la forma


 b
f (x)dx = Af (0) + Bf (1/2) + Cf (1) .
a

Calcule las constantes A, B y C y aplique la fórmula para estimar el valor de la integral


En .

4. Cuál valor de la integral es más exacto (cuadratura o iterativamente)?

Problema 8.5 Si ab > 0 , podemos hacer el cambio de variable y transformar la integral


 b  1/a
1
f (x)dx = f (1/t)dt .
a 1/b t2

Considere la evaluación de la integral impropia


 x
1 −x2 /2
N (x) = e dx
−∞ 2π

1. Transforme N (x) usando la expresión anterior para que pueda utilizar la fórmula de
Simpson.

2. Aplique la fórmula de integración de Simpson compuesta con M puntos a cada una de


las integrales obtenidas en la parte (a).

 3
Problema 8.6 Se sabe que ex dx = 19.08553692... . Estime el valor de la integral usando
3 0
trapezoide, Simpson y Simpson 8 .

Problema 8.7 Sea f una función continua. Use cuadratura de Gauss sobre [−1, 1] con 3
nodos para obtener la fórmula

 $ √ % $√ %
1
5 − 15 8 5 15
f (x) ≈ f + f (0) + f .
−1 9 5 9 9 5

Problema 8.8 Deduzca la fórmula de cuadratura gaussiana con 3 modos reescalada al intervalo
[0, 1] , la cual es dada por
 $ √ %   $ √ %
1
5 5 − 15 4 1 5 5 + 15
f (x)dx ≈ f + f + f
0 18 10 9 2 18 10
 1
y use esta para calcular un valor aproximado para f (x)x3 dx
0
Sergio Plaza 219

Problema 8.9 Determine a, b y c tal que la fórmula de cuadratura


 
1
Q(f ) = af (0) + bf + cf (1)
2

es exacta para la integral

 1
f (x)x3 dx
0

si f (x) es un polinomio de grado menor o igual que 2. Encuentre el error en Q(x4 ) , como una
 1
aproximación de x7 dx .
0

Problema 8.10 Determine c1 , c2 , c3 y c4 tal que la fórmula de cuadratura

Q(f ) = c1 f (0) + c2 f (1) + c3 f (3) + c4 f (4)

es exacta para la integral  ∞


f (x)e−x dx
0

si f es un polinomio de grado menor o igual que 3.

Problema 8.11 Obtenga los valores de las constantes c1 , c2 , x1 y x2 tales que la siguiente
fórmula de integración numérica

1
F (x)dx = c1 F (x1 ) + c2 F (x2 )
−1

sea exacta para todos los polinomios de grado menor o igual a 3. Use dicha fórmula para
5
aproximar la integral de la función f (x) = (x − 3) en el intervalo [2, 4].
c
Problema 8.12 Queremos aproximar el valor de la integral I(f ) = 0 f (x)dx , donde f (x) =
cos2 (x)e−x y c es una constante positiva. Esta integral puedes ser aproximada con error
absoluto menor que ε > 0 dado, para ellos usamos una fórmula de integración numérica.
Fijando ε = 10−3 , estime la cantidad de intervalos que son necesarios, en terminos de c , si
usamos la regla de los trapecios compuesta para aproximar I(f ) .

Problema 8.13 Sea f : [x0 , xn ] −→ R una función a la cual deseamos aproximar el valor de
 xn
x0
f (x)dx . Denotemos por I1 el valor obtenido usando al regla de los trapecios con un paso
constante h1 e I2 el valor obtenido usando la regla de los trapecios con paso constante h2 ,
con la condición h1 = h2 . Defina
I1 − I2
Ik = I1 + h2
2
h2
−1
1

Muestre con varios ejemplos que el valor Ik , llamado extrapolación de Richardson, es una
mejor aproximación que I1 y que I2 para la integral.
Sergio Plaza 220

Problema 8.14

Problema 8.15

Problema 8.16
Capı́tulo 9

Solución numérica de ecuaciones


diferenciales ordinarias

Problema 1. Encontrar una solución al problema de valor inicial (PVI)


x = f (t, x)x(t0 )
(9.1)
x(t0 ) = x0 .

Por ejemplo,

x = x tang(t + 3)
x(−3) = 1.

El problema 1 tiene dos partes

(i) Existencia de soluciones,

(ii) Unidad de soluciones.

Para esto se tienen los siguientes teoremas.

Teorema 9.1 Sea R ⊂ R2 un rectángulo centrado en (t0 , x0 ) , digamos

R = {(t, x) : |t − t0 |  α, |x − x0 |  β} .

Si f : R −→ R es continua en R , entonces el problema (9.8) tiene una solución x(t) para


|t − t0 | < min{α, β/M } donde M = max{|f (t, x)| : (t, x) ∈ R}

∂f
Teorema 9.2 Si f y son continuas en
∂x

R = {(t, x) : |t − t0 |  α, |x − x0 |  β} ,
entonces el problema (9.8) tiene una única solución x(t) para |t − t0 |  min{α, β/M } .

221
Sergio Plaza 222

También tenemos el teorema siguiente

Teorema 9.3 Si f es continua en a  t  b y −∞ < x < ∞ y satisface

|f (t, x) − f (t, x2 )|  L|x1 − x2 |

entonces el problema (9.8) tiene una única solución en [a, b]

Observación. Si |g(x1 ) − g(x2 )|  L|x1 − x2 | , decimos que g es una función Lipschitz, y L


es llamada una constante de Lipschitz de g .

Por ejemplo, si g es derivable y g  es acotada en [a, b] entonces, por el teorema del valor
medio, g es Lipschitz.

En lo que sigue suponemos que el problema (9.8) tiene solución única. Tenemos entonces el
siguiente problema.

Problema 2. Encontrar una solución exacta o una aproximación a una solución exacta del
problema (9.8).

9.1 Método de Euler

DIBUJO

Tenemos la ecuación diferencial

dx
= f (t, x)
dt
definimos los incrementos

xi+1 = xi + f (ti , xi )h (método de Euler)

Ejemplo. Consideremos el problema de valores iniciales




⎪ dx
⎨ = −2t3 + 12t2 − 20t + 8.5 , 0t4
dt


⎩ x(0) = 1.
Sergio Plaza 223

Integrando directamente nos queda

x(t) = −0.5t4 + 4t3 − 10t2 + 8 + 8.5t + 1 .

Tenemos

dx
= f (t, x) = −2t3 + 12t2 − 20t + 8.5
dt
Luego, x(0.5) = x(0)+f (0, 1)×0.5 , donde x(0) = 1 y la pendiente en t = 0 es f (0, 1) = 8.5 .
Luego xA = x(0.5) = 1 + 8.5 × 0.5 = 5.25 y la solución exacta en t = 0.5 es xT = x(0.5) =
3, 21875 . Se deja al lector completar los cálculos.
Recordemos que el error es

E(xA ) = xT − xA

en nuestro caso E(xA ) = 3.21875 − 5.25 = −2.03125 y el error relativo (porcentaje de error)

xT − xA 2.03125
ER (xA ) = =− = −63.1% .
xT 3.21875

9.1.1 Análisis del error para el módulo de Euler


dx
Sea x (t) = = f (t, x) como en el problema 9.1.
dt
Usando desarrollo de Taylor alrededor de (ti , xi ) obtenemos

(n)
xi 2 x
xi+1 = xi + xi h + h + · · · + i hn + Rn
2 n!
x(n+1) (θ) n+1
donde h = ti+1 − ti y Rn = h , con θ entre ti y ti+1 . Escrito de otra forma
(n + 1)!

f  (ti , xi ) 2 f (n−1) (ti , xi ) n


xi+1 = xi + f (ti , xi )h + h + ···+ h + O(hn+1 )
2! n!

f  (ti , xi ) 2
Luego, Error = h + · · · y podemos considerar el error aproximado
2
f  (ti , xi ) 2
Ea = h ( error de trancamiento local )
2
Observación. Vimos que

f  (ti , xi ) 2 f  (ti , xi ) 3
xi+1 = xi + f (ti , xi )h + h + h + ···
    2  3! 
método de Euler
error

Ahora, para estimar el error aproximado hasta el orden 3, tenemos que calcular f  (ti , xi ) .
Sabemos del cálculo diferencial que
Sergio Plaza 224

∂f ∂f dx
f  (ti , xi ) = +
∂t ∂x dt
luego,

   
 ∂ ∂f ∂f dx ∂ ∂f ∂f dx
f (ti , xi ) = + · + +
∂t ∂t ∂x dt ∂x ∂t ∂x dt

desarrollando esto, se obtiene una expresión larga y no muy cómoda para f  (t, x) .

9.2 Método de Heun

DIBUJO

Tenemos

xi+1 = f (ti , xi ) ,

una extrapolación lineal de xi+1 es dada por

x0i+1 = xi + f (ti , xi )h ( ec. predictor)

y una mejora de xi+1 que permite el cálculo de una estimación de la pendiente es

xi+1 = f (ti+1 , x0i+1 ) .

Luego, podemos considerar la pendiente promedio

xi + xi+1 f (ti , xi ) + f (ti+1 , x0i+1 )


xi = =
2 2
y usaremos esta pendiente para extropolar linealmente desde xi a xi+1 usando el método de
Euler, es decir,

f (ti , xi ) + f (ti+1 , x0i+1 )


xi+1 = xi + h ( (ec. corrector))
2
En resumen, el método de Heun nos queda como
Sergio Plaza 225



⎪ x0 = xi + f (ti , xi )h (ec. Predictor)
⎨ i+1

⎪ f (ti , xi ) + f (ti+1 , x0i+1 )
⎩ xi+1 = xi + h (ec. Corrector)
2
Escrito de otra forma, nos queda

f (ti , xi ) + f (ti+1 , xi + hf (ti , xi ))


xi+1 = xi + h
2

9.3 Método del punto medio o método de Euler mejorado


En este caso consideramos



h

⎨ xi+1/2 = xi + f (ti , xi )
2



⎩ ti+1/2 h ti + ti+1
= ti + = .
2 2

DIBUJO

Usaremos ese valor promedio para calcular la pendiente en el punto medio (ti+1/2 , xi+1/2 ) y
después extrapolamos a xi+1 , usando este valor intermedio, es decir, tenemos

h
xi+1 = xi + f (ti+1/2 , xi+1/2 ) (Euler mejorado)
2
esto es,

h h h
xi+1 = xi + f (ti + , xi + f (ti , xi )) .
2 2 2

9.4 Métodos de Runge–Kutta


Consideramos una forma generalizada para lo anterior, escribiendo

xi+1 = xi + φ(ti , xi , h)h ,

es decir, φ depende del incremento h . La función φ es llamada función incremento. En


general esta se escribe como
Sergio Plaza 226

φ = a1 k1 + a2 k2 + · · · + an kn ,

donde ai , i = 1, 2, . . . , n , son constantes y




⎪ k1 = f (ti , xi )




⎨ k2 = f (ti + p1 h, xi + q1,1 k1 h)
k3 = f (ti + p2 h, xi + (q2,1 k1 + q2,2 k2 )h)

⎪ ..




.
⎩ k = f (ti + pn−1 h, xi + (qn−1,1 k1 + qn−1,2 k2 + · · · + qn−1,n−1 kn−1 )h) .
n

Note que los kj son relaciones de recurrencias.

Problema. Hacer una elección razonable para tener relaciones manejables y una buena aprox-
imación a la solución. En esto consiste una de las técnicas más conocidas, nos referimos a las
técnicas de Runge–Kutta.

9.4.1 Runge–Kutta de orden 2


En este caso, tenemos

xi+1 = xi + (a1 k1 + a2 k2 )h (R-K2,1)

donde


k1 = f (ti , xi )
k2 = f (ti + p1 h, xi + q1,1 k1 h) .

Problema. Encontrar a1 , a2 , p1 y q1,1 .

Estos se calculan igualando el término de segundo orden de (R-K2,1) con la expansión de


Taylor de f alrededor del punto (ti , xi ) . De esto se obtienen las ecuaciones

1
a1 + a2 = 1
1
a2 q1,1 = = a2 p 1
2
de donde

⎨ a1 = 1 − a2
1
⎩ p1 = q1,1 = ,
2a2

y a2 lo podemos elegir libremente.


1 1
Por ejemplo, considerando a2 = obtenemos a1 = y p1 = q1,1 = 1 , y nos queda
2 2
h
xi+1 = xi + (k1 + k2 ) (método de Heun con un sólo corrector)
2
Sergio Plaza 227

donde


k1 = f (ti , xi )
k2 = f (ti + h, xi + k1 h) ,
es decir,

h
xi+1 = xi + (f (ti , xi ) + f (ti + h, xi + hf (ti , xi )) .
2
Considerando a2 = 1 nos queda a1 = 0 y p1 = q1,1 = 1/2 , y obtenemos

xi+1 = xi + k2 h (método de punto medio)


h h
= xi + f (ti + , xi + f (ti , xi ))
2 2
donde


⎪ k1 = f (ti , xi )

 

⎪ h 1
⎩ k2 = f ti + , xi + k1 h .
2 2

9.4.2 Método de Ralston


2 1 3
Tomando a2 = , obtenemos a1 = , p1 = q1,1 = , y
3 3 4
 
1 2
xi+1 = xi + k1 + k2 h
3 3
donde


⎪ k1 = f (ti , xi )

 

⎪ 3 3
⎩ k2 = f ti + h, xi + k1 h .
4 4

9.4.3 Método de Runge–Kutta de orden 3


Esta vez, consideramos desarrollos de Taylor hasta orden 3. Obtenemos

1
xi+1 = xi + (k1 + 4k2 + k3 )h (R-K3)
6
donde


⎨ k1 = f (ti , xi )

k = f ti + 12 h, xi + 12 k1 h
⎩ 2
k3 = f (ti + h, xi − k1 h + 2k2 h)
Sergio Plaza 228

9.4.4 Método de Runge–Kuta de orden 4

Esta vez, consideramos desarrollos de Taylor hasta orden 4. Obtenemos

1
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 )h (R-K4)
6
donde




k1 = f (ti , xi )


k2 = f ti + h2 , xi + 12 k1 h


⎪ k = f ti + h2 , xi + 12 k2 h
⎩ 3
k4 = f (ti + h, xi + k3 h)

9.4.5 Método de Runge–Kuta de orden superior

Considerando dearrollos de Taylor hasta order 6, obtenemos

1
xi+1 = xi + (7k1 + 32k3 + 12k4 + 32k5 + 7k6 )h (R-K6) (método de Butcher)
90

donde


⎪ k1 = f (ti , xi )







⎪ 1 1

⎪ k2 = f (ti + h, xi + k1 h)

⎪ 4 4





⎪ 1 1 1




k3 = f (ti + h, xi + k1 h + k2 h)
⎨ 4 8 8

⎪ h 1

⎪ k4 = f (ti + , xi − k2 h + k3 h)

⎪ 2 2







⎪ 3 3 9

⎪ k5 = f (ti + h, xi + k1 h + k4 h)

⎪ 4 16 16





⎪ 3 2 12 12 8
⎩ k6 = f (ti + h, xi − k1 h + k2 h + k3 h − k4 h + k5 h) .
7 7 7 7 7

9.5 Métodos multipaso


Consideremos el problema


x = f (t, x) , atb
x(a) = α.

Un método multipaso de paso m para resolver este problema de valor inicial es uno cuya
ecuación de diferencia para obtener xi+1 en el punto ti+1 puede representarse por la siguiente
Sergio Plaza 229

ecuación, donde m es un entero mayor o igual que 1.

xi+1 = am−1 xi + am−2 xi−1 + · · · + a0 xi−(m−1)


+h[bm f (ti+1 , xi+1 ) + bm−1 f (ti , xi )
+ · · · + b0 f (ti−(m−1) , xi−(m−1) )] . (9.2)

b−a
para i = m−1, m, . . . , N −1 , donde h = , a0 , a1 , . . . , am−1 y b0 , b1 , . . . , bm son constantes
N
y se especifican los valores iniciales

x0 = α, x1 = α1 , x2 = α2 , . . . , xm−1 = αm−1 . (9.3)

Cuando bm = 0 , el método es explı́cito, o abierto ya que (9.3) da entonces xi+1 de manera


explı́cita en término de los valores previamente determinados. Cuando bm = 0 el método es
implı́cito o cerrado ya que xi+1 se encuentra en ambos lados de la ecuación.

Por ejemplo, las ecuaciones


⎨ x0 = α, x1 = α1 , x2 = α2 , x3 = α3
h (9.4)
⎩ xi+1 = xi + [ 55f (ti , xi ) − 59f (ti−1 , xi−1 ) + 37f (ti−2 , xi−2 ) − 9f (ti−3 , xi−3 ) ]
24

donde i = 3, 4, . . . , N − 1 definen un método explı́cito de 4 pasos, llamado método de Adam-


Bashforth de cuarto orden.
Las ecuaciones


⎨ x0 = α, x1 = α1 , x2 = α2
h (9.5)
⎩ xi+1 = xi + [ 9f (ti+1 , xi+1 ) − 19f (ti , xi ) − 5f (ti−1 , xi−1 ) + f (ti−2 , xi−2 ) ]
24

donde i = 2, 3, . . . , N − 1 , definen un método implı́cito de 3 pasos llamado método de Adam-


Moulton de cuarto orden.
Tanto en (9.4) o (9.5) deben especificarse los valores iniciales, generalmente suponemos que
x0 = α y se generan los valores residuales por un método de Runge–Kutta o por otro método
de 1 paso, por ejemplo, por el método de punto medio

⎨ x0 = α
h h
⎩ xi+1 = xi + hf (ti + , xi + f (ti , xi ))
2 2

donde i = 0, 1, . . . , m − 1 .
o por el método de Euler modificado
Sergio Plaza 230


⎨ x0 = α
h
⎩ xi+1 = xi + [f (ti , xi ) + f (ti+1 , xi + hf (ti xi ))]
2
con i = 0, 1, . . . , m − 1 ,
o por el método de Heun

⎨ x0 = α
h 2 2
⎩ xi+1 = xi + [f (ti , xi ) + 3f (ti + h, xi + hf (ti , xi ))]
4 3 3
o por el método de Runge–Kutta de orden 4


⎪ x0 = α



⎪ h 1

⎪ k1 = hf (ti + , xi + k1 )

⎪ 2 2





⎨ h 1
k3 = hf (ti + , xi + k2 )
2 2







⎪ k4 = hf (ti+1 , xi + k3 )







⎩ xi+1 1
= xi + (k1 + 2k2 + 2k3 + k4 )
6
donde i = 0, 1 . . . , m − 1
En el problema (9.8)


x = f (t, x) , atb
x(a) = α.
Si

xi+1 = am−1 xi + am−2 xi−1 + · · · + a0 xi−(m−1) + h[bm f (ti+1 , xi+1 ) + bm−1 f (ti , xi ) +
· · · + b0 f (ti−(m−1) , xi−(m−1) )]

es el (i + 1)–paso en un método de multipaso, entonces el error local de truncamiento en este


paso es dado por

x(ti+1 ) − am−1 x(ti ) − · · · − a0 x(ti−(m−1) )


τi+1 (h) =
h

−bm [f (ti+1 , x(ti+1 )) + · · · + b0 f (ti−(m−1) , x(ti−(m−1) ))]

i = m − 1, m, . . . , N − 1 .
Tenemos los siguientes casos particulares.
Sergio Plaza 231

9.5.1 Método de Adams–Bashforth de dos pasos

x0 = α, x1 = α1
h
xi+1 = xi + (3f (ti , xi ) − f (ti−1 , xi−1 ))
2
i = 1, 2, . . . , N − 1 . Su error de truncamiento local es

5 
τi+1 (h) = x (μi )h2 , μi ∈]ti−1 , ti+1 [ .
12

9.5.2 Método de Adams–Bashforth de 3 pasos


⎨ x0 = α, x1 = α1 , x2 = α2
h
⎩ xi+1 = xi + [ 23f (ti , xi ) − 16f (ti−1 , xi−1 ) + 5f (ti−2 , xi−2 ) ]
12
i = 2, 3, . . . , N − 1 . Su error de truncamiento local es

3 (4)
τi+1 (h) = x (μi )h3 , μi ∈]ti−2 , ti+1 [ .
8

9.5.3 Método de Adams–Bashforth de 4 pasos


⎨ x0 = α, x1 = α1 , x2 = α2 , x3 = α3
h
⎩ xi+1 = xi + [ 55f (ti , xi ) − 59f (ti−1 , xi−1 ) + 37f (ti−2 , xi−2 ) − 9f (ti−3 , xi−3 )]
24
i = 3, 4, . . . , N − 1 . Su error local de truncamiento es dado por

251 (5)
τi+1 (h) = x (μi )h4 , μi ∈]ti−3 , ti+1 [ .
720

9.5.4 Método de Adams–Bashforth de 5 pasos



⎪ x0 = α, x1 = α1 , x2 = α2 , x3 = α3 , x4 = α4



h

⎪ xi+1 = xi + [1901f (ti, xi ) − 2774f (ti−1 , xi−1 ) + 2616f (ti−2 , xi−2 ) − 1274f (ti−3, xi−3 )

⎪ 720

+251f (ti−4, xi−4 )]

i = 4, 5, . . . , N − 1 . Su error local de truncamiento es

95 (6)
τi+1 (h) = x (μi )h5 , μi ∈]ti−4 , ti+1 [
288
Los métodos implı́citos se derivan usando (ti+1 , f (ti+1 , x(ti+1 ))) como un nodo de interpo-
lación adicional en el cual se usa una aproximación de la integral
Sergio Plaza 232

 ti+1
f (t, x(t))dt ,
ti

la cual se puede aproximar por diferentes métodos, por ejemplo, regla de los trapecios, regla de

Simpson, o regla de Simpson 38 , ... .

9.5.5 Método de Adams–Moulton de dos pasos


⎨ x0 = α, x1 = α1
h
⎩ xi+1 = xi + [ 5f (ti+1 , xi+1 ) + 8f (ti , xi ) − f (ti−1 , xi−1 ) ]
12

donde i = 1, 2, . . . , N − 1 . Su error de truncamiento es dado por

1 (4)
τi+1 (h) = − x (μi )h3 , μi ∈]ti−1 , ti+1 [ .
24

9.5.6 Método de Adams–Moulton de tres pasos


⎨ x0 = α, x1 = α1 , x2 = α2
h
⎩ xi+1 = xi + [9f (ti+1 , xi+1 ) + 19f (ti , xi ) − 5f (ti−1 , xi−1 ) + f (ti−2 , xi−2 )]
24

donde i = 2, 3, . . . , N − 1 . Su error local de truncamiento es dado por

19 (5)
τi+1 (h) = − x (μi )h4 , μi ∈]ti−2 , ti+1 [ .
720

9.6 Sistemas de ecuaciones diferenciales


Un sistema de ecuaciones diferenciales es un sistema del tipo

⎧ du


1
= f1 (t, u1 , . . . , um )




dt



⎨ du2
(S1) = f2 (t, u1 , . . . , um ) (9.6)

⎪ dt

⎪ ..

⎪ .



⎩ dum = fm (t, u1 , . . . , um )
dt
con a  t  b y condiciones inicales

(CI1) u1 (a) = α1 , u2 (a) = α2 , . . . , um (a) = αm .

Problema. Encontrar las m funciones u1 , . . . , um que satisfacen el sistema (S1) .


Sergio Plaza 233

Para resolver este problema, introducimos algunas notaciones. Sea

D = {(t, u1 , . . . , um ) : a  t  b, −∞ < ui < ∞, i = 1, . . . , m} .


Decimos que una función f (t, u1 , . . . , um ) satisface una condición de Lipschtz en D en las
variables u1 , . . . , um si

-
m
|f (t, u1 , . . . , um ) − f (t, z1 , . . . , zm )|  L |ui − zi | ,
i=1

para alguna constante L  0 y (t, u1 , . . . , um ), (t, z1 , . . . , zm ) ∈ D .

Observemos que si


∂f


∂ui (t, u1 , . . . , um )
 L

para i = 1, . . . , m y todo (t, u1 , . . . , um ) ∈ D . Entonces, por el teorema del valor medio, f


satisface una condición de Lipschitz en D .
Tenemos el siguiente teorema.

Teorema 9.4 Sea D = {(t, u1 , . . . , um ) : a  t  b, −∞ < ui < ∞, i = 1, . . . , m} y


sean fi : D −→ R , i = 1, . . . , m . Supongamos que para cada i = 1, . . . , m la función fi es
∂f
continua en D y satisface una condición de Lipschitz en D o ∂u i
(t, u1 , . . . , um ) es continua
para i = 1, . . . , m y a  t  b . Entonces el sistema (9.6) con las condiciones iniciales (9.6)
tiene solución única u1 (t), . . . , um (t) , a  t  b .

Para encontrar aproximaciones a las soluciones del sistema (9.6) numéricamente, podemos
utilizar, por ejemplo, el método de Runge–Kutta


⎪ x0 = α



⎪ k1 = f (ti , xi )





⎪  

⎪ h 1

⎨ k2 = f ti + , xi + k1
2 2

⎪  



⎪ h 1

⎪ k3 = f ti + , xi + k2

⎪ 2 2






k4 = f (t1 + h, xi + k3 )
y entonces

h
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 ) , i = 0, 1, . . . , N − 1
6
que resuelve numéricamente el problema

x (t) = f (t, x) , atb
x(a) = α.
Sergio Plaza 234

b−a
Este se generaliza como sigue. Sea N  1 y sea h = . La partición de [a, b] en N
N
subintervalos con nodos

tj = a + jh, j = 0, 1, . . . , N

es dada.
Usaremos la notación xi,j para denotar una aproximación a ui (tj ) , j = 0, 1, . . . , N , i =
1, . . . , m , es decir, xi,j aproxima la i–ésima solución ui (t) de (9.6) en el punto tj de los
nodos. Usamos la notación

x1,0 = α1 , x2,0 = α2 , . . . , xm,0 = αm

para las condiciones iniciales.


Si hemos calculado los valores x1,j , x1,j , x2,j , . . . , xm,j . Obtenemos x1,j+1 , x2,j+1 , . . . , xm,j+1
como sigue. Calculando primero, para i = 1, . . . , m



⎪ k1,i = hf (tj , x1,j , x2,j , . . . , xm,j )





⎪  

⎪ h 1 1 1

⎪ k2,i = hf tj + , x1,j + k1,1 , x2,j + k1,2 , . . . , um,j + k1,m

⎨ 2 2 2 2

⎪  

⎪ h 1 1 1

⎪ k3,i = hfi tj + , x1,j + k2,1 , x2,j + k2,2 , . . . , xm,j + k2,m

⎪ 2 2 2 2






k4,i = hfi tj + h, x1,j + k3,1 , x2,j + k3,2 , . . . , xm, j + k3,m

hacemos entonces, para , i = 1, . . . , m

1
xi,j+1 = xi,j + (k1,i + 2k2,i + 2k3,i + k4,i .
6

Note que antes de determinar los términos k2,i deben calcularse todos los valores k
,1 , k
,2 , . . . , k
,m .
En general, estos deben calcularse antes que cualquiera de las expresiones k
+1,i .

9.7 Ecuaciones diferenciales de orden superior


Un problema de valores iniciales


x(m) (t) = f (t, x, x , . . . , x(m−1) ) , atb
(OS1)
x(a) = α1 , x (a) = α2 , . . . , x(m−1) (a) = αm

Se transforma en un sistema de ecuaciones diferenciales, como el (9.6) mediante la intro-


ducción de nuevas variables. Sean
Sergio Plaza 235




u1 (t) = x(t)

⎨ u2 (t) = x (t)
⎪ ..

⎪ .

um (t) = x(m−1) (t)

El problema (9.7) se transforma entonces en el siguiente sistema de ecuaciones diferenciales.

⎧ du1 dx

⎪ = = u2




dt dt





⎪ du2 dx

⎪ = = x = u3

⎪ dt dt




⎨ ..
.







⎪ dum−1 dx (m−2)

⎪ = x(m−1) = um


=

⎪ dt dt





⎪ dx (m−1)
⎩ dum
= = x(m) = f (t, u1 , u2 , . . . , um )
dt dt
con condiciones iniciales




u1 (a) = x(a) = α1

⎨ u2 (a) = x (a) = α2
⎪ ..

⎪ .

um (a) = x(m−1) (a) = αm

y podemos aplicar lo anterior para resolver este sistema y ası́ obtener la solución del problema
(9.7).

9.8 Problemas con valores en la frontera para ecuaciones


diferenciales ordinarias
Problema 1 Resolver el siguiente problema con valores en la frontera

⎧ 
⎨ x = f (t, x, x ) , atb
x(a) = α (9.7)

x(b) = β.

Antes de continuar con el problema (9.7), recordemos algunos resultados de ecuaciones


diferenciales.

Teorema 9.5 Supongamos que f es continua en el conjunto D = {(t, x, x ) : a  t 


∂f ∂f
b , −∞ < x < ∞ , −∞ < x < ∞} y que , son continuas en D . Si
∂x ∂x
Sergio Plaza 236

∂f
(i) (t, x, x ) > 0 para todo (t, x, x ) ∈ D , y
∂x
(ii) existe una constante M  0 tal que


∂f


∂x (t, x, x )
M

para todo (t, x, x ) ∈ D .

Entonces el problema (9.7) tiene solución única en D .

Ejemplo. El problema con valores en la frontera

⎧  −tx
⎨ x +e + sen(x ) = 0, 1t2
x(1) = 0

x(2) = 0

tiene solución única en D = {(t, x, x ) : 1  t  2 , −∞ < x < ∞ , −∞ < x < ∞} .


 −tx

que f (t,
x, x ) = −e
En efecto, tenemos − sen(x ) es continua. Ahora, ∂f 
∂x (t, x, x ) =

te−tx > 0 en D y
∂x
∂f  
 (t, x, x )
= |− cos(x )|  1 .

Notemos que en el caso particular en que f (t, x, x ) tiene la forma

f (t, x, x ) = p(t)x + q(t)x + r(t) ,

la ecuación x = f (t, x, x ) es llamada lineal. Este tipo de ecuaciones ocurre frecuentemente
en problemas de la Fı́sica.

Corolario 9.1 Si el problema lineal con valores en la frontera


⎨ x = p(t)x + q(t)x + r(t) atb
x(a) = α

x(b) = β

donde las funciones p(t) , q(t) y r(t) satisfacen

(i) p(t) , q(t) y r(t) son continuas en [a, b] ,

(ii) q(t) > 0 en [a, b] .

Entonces el problema tiene solución única.

9.8.1 Método del disparo para el problema lineal

Para aproximar la solución única garantizada bajo las hipótesis del corolario anterior, primero
consideramos los problemas de valores iniciales
Sergio Plaza 237


⎨ x = p(t)x + q(t)x + r(t) , atb
(P V I, 1) x(a) = α
⎩ 
x (a) = 0


⎨ x = p(t)x + q(t)x , atb
(P V I, 2) x(a) = 0
⎩ 
x (a) = 1.

Bajos las hipótesis del corolario, ambos problemas tienen solución única. Si x1 (t) denota la
solucón del (P V I, 1) y x2 (t) denota la solución del (P V I, 2), entonces si x(t) = x1 + Cx2 (t)
es una solución de la ecuación x = p(t)x + q(t)x + r(t) , la verificación de esto es inmediata.
Usando las condiciones de frontera, x(q) = x1 (a) + Cx2 (a) = α + 0 = α y x(b) = x1 (b) +
1 (b)
Cx2 (b) = β , por lo tanto C = β−x x2 (b) . En conclusión, la solución buscada es

β − x1 (b)
x(t) = x1 (t) + x2 (t) , si x2 (b) = 0,
x2 (b)

es la solución del problema con valores en la frontera que estamos estudiando. En las hipótesis
del Corolario 9.1 no se da el caso problemático de tener x2 (t) ≡ 0 ,

Ejemplo 74
⎧ 2t 2
⎨ x = 1+t 
2x − 1+t2 x +1 0t4
x(0) = 1.25

x(4) = −0.95

Otra forma para aproximar la solución del problema con valores en la frontera

⎧  
⎨ −x + p(t)x + q(t)x + r(t) = 0, atb
x(a) = α

x(b) = β

es como sigue. Producimos un sistema de ecuaciones de primer orden en el que no figura


explicitamente t , para ello definimos


⎨ x0 = t
x = x1
⎩ 3
x4 = x2 ,

donde x1 es la solución del (P V I, 3) y x2 es la solución del (P V I, 4) siguientes


⎨ x = f (t, x, x ) , atb
(P V I, 3) x(a) = α
⎩ 
x (a) = 0

y
Sergio Plaza 238


⎨ x = f (t, x, x ) , atb
(P V I, 4) x(a) = α
⎩ 
x (a) = 1.

Obtenemos ası́ el sistema de ecuaciones



⎪ x0 = 1 x0 (a) = a



⎨ x1

= x3 x1 (a) = α
x2 = x4 x2 (a) = α


⎪ x3
⎪ = f (x0 , x1 , x3 ) x3 (a) = 0

⎩ 
x4 = f (x0 , x2 , x4 ) x4 (a) = 1

el cual puede resolverse, usando por ejemplo, Runge–Kutta.

9.9 El método del disparo para el problema no lineal de


valores en la frontera
Consideremos el problema de valores en la frontera

⎧ 
⎨ x = f (t, x, x ) , atb
x(a) = α

x(b) = β.

donde f satisface las hipótesis del Teorema 9.5.


En este caso usamos las soluciones de una sucesión de problemas de valor inicial

⎧ 
⎨ x = f (t, x, x ) , atb
x(a) = α
⎩ 
x (a) = s

donde s es un parámetro. Elegimos s = sk de modo que limk→∞ x(b, sk ) = x(b) = β , donde


x(t, sk ) denota la solución del problema de valores iniciales asociado en este caso con s = sk y
x(t) denota la solución del problema de valores de frontera.
“Comenzamos con un parámetro s0 que determina la elevación inicial con la cual se dispara
al objetivo desde el punto (a, α) a lo largo de la curva descrita por la solución del problema de
valor inicial

⎧ 
⎨ x = f (t, x, x ) , atb
x(a) = α
⎩ 
x (a) = s0 .

Si x(b, s0 ) no está suficientemente cerca de β corregimos la elevación, tomando s1 , s2 , . . . , ,


hasta estar suficientemente próximo al blanco”.
Sergio Plaza 239

9.9.1 Determinación de los parámetros sk


Problema. Determinar s tal que

g(b, s) = x(b, s) − β = 0

(ecuación no lineal). Podemos usar, por ejemplo el método de la secante, con valores iniciales
s0 y s1 ,

g(b, sk−1 )(sk−1 − sk−2 )


sk = sk−1 −
g(b, sk−1 ) − g(b, sk−2 )
(x(b, sk−1 ) − β)(sk−1 − sk−2 )
= sk−1 − , k = 2, 3, . . .
x(b, sk−1 ) − x(b, sk−2 )

o el método de Newton

x(b, sk−1 ) − β
sk = sk−1 − d
ds x(b, sk−1 )

d
aquı́ el problema es obtener una expresión explicı́ta para ds x(b, s) .

9.10 Método de diferencias finitas para problemas lineales


Consideremos primero el caso lineal

⎧ 
⎨ x = p(t)x + q(t)x + r(t) , atb
x(a) = α

x(b) = β
b−a
Dividimos el intervalo [a, b] en N +1 puntos ti = a+ih , i = 0, 1, . . . , N +1 , donde h = N .
Para i = 1, 2, . . . , N la ecuación diferencial a aproximar es

x (ti ) = p(ti )x (ti ) + q(ti )x(ti ) + r(ti ) .

Usando las fórmulas para aproximar derivadas tenemos, por ejemplo,

1 h2
x (ti ) = 2
(x(ti+1 ) − 2x(ti ) + x(ti−1 )) − x(4) (θi ) ,
h 12
donde θi ∈ ]ti−1 , ti+1 [ (fórmula de las diferencias centradas). Analogamente,

1 h2
x (ti ) = (x(ti+1 ) − x(ti−1 )) − x (ξi ) ,
2h 6
donde ξi ∈ ]ti−1 , ti+1 [ . Reemplazando, obtenemos
Sergio Plaza 240

 
x(ti+1 ) − 2x(ti ) + x(ti−1 ) x(ti+1 ) − x(ti−1 )
= p(ti ) + q(ti )x(ti ) + r(ti )
h2 2h
h2
− (2p(ti )x (ξi ) − x(4) (θi )) .
12
Un método de diferencias finitas con error de truncamiento de orden O(h2 ) y usando la
notación wj = x(tj ) , junto con las condiciones de frontera x(a) = α y x(b) = β , se obtiene

w0 = α
2wi − wi+1 − wi−1 wi+1 − wi−1
+ p(ti ) + q(ti )wi = −r(ti )
h2 2h
wN +1 = β

i = 1, 2, . . . , N . Esto se escribe como

   
h h
− 1 + p(ti ) wi−1 + (2 + h q(ti ))wi − 1 − p(ti ) wi+1 = −h2 r(ti )
2
2 2

y el sistema de ecuaciones lineales de orden N × N tiene la forma tridiagonal

Aw = b

donde

⎛ ⎞
2 + h2 q(t1 ) −1 + h2 p(t1 ) 0 ··· 0 0
⎜ ⎟
⎜ ⎟
⎜ −1 − h p(t2 ) 2
−1 + h
··· ⎟
⎜ 2 2 + h q(t2 ) 2 p(t2 ) 0 0 ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ .. .. .. .. .. .. ⎟
A=⎜ . . . . . . ⎟
⎜ ⎟
⎜ .. .. .. .. .. .. ⎟
⎜ . . . . . . ⎟
⎜ ⎟
⎜ −1 + h2 p(tN −1 ) ⎟
⎜ ⎟
⎝ ⎠
0 ··· 0 0 −1 − h2 p(tN )) 2 + h2 q(tN )
y

⎛ ⎞
−h2 r(t1 ) + 1 + h2 p(t1 ) w0
⎛ ⎞ ⎜ ⎟
w1 ⎜ ⎟
⎜ 2
−h r(t2 ) ⎟
⎜ ⎟ ⎜ ⎟
⎜ w2 ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟
⎜ .. ⎟ ⎜ . ⎟
w=⎜ . ⎟ y b=⎜ ⎟.
⎜ ⎟ ⎜ .. ⎟
⎜ .. ⎟ ⎜ . ⎟
⎝ . ⎠ ⎜ ⎟
⎜ −h2 t(tN −1 ) ⎟
wN ⎜ ⎟
⎝ ⎠

−h2 r(tN ) + 1 − h2 p(tN ) wN +1
Sergio Plaza 241

2
El sistema tridiagonal anterior tiene solución única si h < L , donde L = max{|p(t)| : a 
t  b} .

9.10.1 Caso no lineal

Consideremos el problema no lineal de valores en la frontera

⎧ 
⎨ x = f (t, x, x ) , atb
x(a) = α

x(b) = β.

Para garantizar soluciones suponemos que

∂f ∂f
1.- f , y 
son continuas en D = {(t, x, x ) : a  t  b , −∞ < x < ∞ , −∞ <
∂x ∂x
x < ∞} .

∂f
2.- (t, x, x )  δ en D para algún δ > 0 .
∂x

3.- Existen


,

∂f

k


= max
(t, x, x )
: (t, x, x ) ∈ D ,
∂x


,

∂f

L


= max
 (t, x, x )
: (t, x, x ) ∈ D .
∂x

Como antes, usando fórmulas para x (ti ) y x (ti ) , obtenemos

 
x(ti+1 ) − 2x(ti ) + x(ti−1 ) x(ti+1 ) − x(ti−1 ) h2  h2
= f ti , x(ti ), − x (ξi ) + x(4) (θi )
h2 2h 6 12

donde ξi , θi ∈ ]ti−1 , ti+1 [ .


Poniendo

w0 = α
 
wi+1 − 2wi + wi−1 wi+1 − wi−1
− +f ti , wi , = 0
h2 2h
wN +1 = β

i = 1, 2, . . . , N , obtenemos un sistema de ecuaciones no lineales


Sergio Plaza 242

w2 − α
2w1 − w2 + h2 f (t1 , w1 , )−α = 0
2h
w3 − w1
−w1 + 2w2 − w3 + h2 f (t2 , w2 , ) = 0
2h
.. .. ..
. . .
2 wN − wN −2
−wN −2 + 2wN −1 − wN + h f (tN −1 , wN −1 , ) = 0
2h
β − wN −1
−wN −1 + 2wN + h2 f (tN , wN , ) = 0
2h

y tiene solución única si y sólo si h < 2/L . Para resolver este sistema podemos usar, por
ejemplo, el método de Newton en varias variables.

9.11 Problemas resueltos

Ejemplo 75 Usando los métodos de aproximación de soluciones de ecuaciones diferenciales de


Euler, Euler Mejorado, y de Runge–Kutta, encuentre una solución aproximada del problema


x = sen(tx)
x(0) = 3

con h = 0.1 y n = 10.

Solución. Usando las fórmulas de aproximación de Euler, Euler Mejorado, y de Runge–Kutta,


tenemos la siguiente tabla para los valores de (tn , xn ), los cuales unidos por segmentos de rectas
nos dan la aproximación poligonal deseada.

Euler Euler Mejorado Runge–Kutta


n tn xn xn xn
0 0 3 3 3
1 0,1 3 3,01494 3,01492
2 0,2 3,02955 3,05884 3,05874
3 0,3 3,08050 3,12859 3,12829
4 0,4 3,16642 3,21812 3,21744
5 0,5 3,26183 3,31761 3,31637
6 0,6 3,36164 3,41368 3,41185
7 0,7 3,45185 3,49163 3,48947
8 0,8 3,51819 3,53946 3,53746
9 0.9 3,55031 3,5514 3,55003
10 1 3,54495 3,52867 3,52803
Sergio Plaza 243

9.12 Ejercicios
Problema 9.1 El método de Adams–Bashforth de segundo orden para aproximar soluciones
de un problema de valor inicial

x = f (t, x) , a  t  b
x(a) = x0

es dado por
 
3 1
xn+1 = xn + h f (tn , xn ) − f (tn−1 , xn−1 )
2 2
n  1 , donde para n = 1 , t0 = a y t1 = t0 + h = a + h y x1 puede calcularse con cualquier
método de 1 paso, por ejemplo, Runge–Kutta, de de orden 4. Conocidos (t0 , x0 ) y t1 , x1 ) ,
calculamos (t2 , x2 ) , y ası́ sucesivamente usando el método de Adams–Bashforth. Use lo anterior
para aproximar la solución al problema de valor inicial
⎧  t
⎨ 1
x = −2tx + x(s)ds
102 0

x(0) = 1,

donde para aproximar la integral del lado derecho se usa la regla de los trapecios.

Problema 9.2 Determine una solución aproximada del problema


d2 x(t)
− d t2
= −e−x(t) , t ∈ ]0, 1[ , x(0) = x(1) = 0

mediante el método de elementos finitos.

Problema 9.3 Considere la función


 t
f (t) = 1 − k sen2 (θ) dθ
0

donde k es un parámetro, con 0  k  1 . Usando un problema de valor inicial adecuado


y el método de Runge–Kutta de orden 4, con una subdivisión del intervalo [0, π/2] en 10
subintervalos, encuentre una aproximación al valor de la integral.

Problema 9.4 En un estudio de una población de ratones de campo se encuentra que ella
evoluciona de acuerdo a la siguiente ecuación diferencial

dN (t)
= AN (t) − B(t)N (t)1.1
dt
N (t) indica la cantidad de inviduos en el tiempo t . Se determina experimentalmente que
A = 2 y se conocen las siguientes mediciones para B(t) (t medido en alguna unidad razonable
de tiempo)

t 0 4 8 12
B 0.70 0.04 0.56 0.70
Sergio Plaza 244

(a) Usando interpolación de Lagrange, encuentre una aproximación polinomial para B(t) .

(b) Usando la aproximación polinomial para B(t) encontrada en la parte (a), encuentre una
aproximación en el intervalo [0, 0.6] de la solución de la ecuación diferencial usando el
método de Euler con h = 0.2 y dada la población inicial de ratones N (0) = 100 .

Problema 9.5 Para resolver el siguiente problema con valor en la frontera:

x (t) = 4(x(t) − t) , 0  t  1


x(0) = 0 , x(1) = 2

se propone usar el método de diferencias finitas sobre la malla {0, 14 , 12 , 34 , 1}, es decir, el tamaño
de paso es h = 14 . Se les recuerda que las fórmulas de diferencias finitas centradas son:

x(ti+1 ) − 2x(ti ) + x(ti−1 )


x (ti ) =
h2
x(ti+1 ) − x(ti−1 )
y  (ti ) = , x(ti ) = ωi donde i = 1, 2, 3
2h

(a) Escriba el sistema lineal que se obtiene al aplicar estas fórmulas en la ecuación diferencial
con valor en la frontera dada anteriormente.

(b) Para resolver dicho sistema se propone usar el método iterativo de Gauss-Seidel, escriba
cómo quedarı́a dicho método para el sistema obtenido en la parte (a) y diga si el método
(0) (0) (0)
converge o no. Justifique su respuesta. Partiendo del punto ω (0) = (ω1 , ω2 , ω3 ) =
(0, 0, 0), obtenga los puntos ω (1) , ω (2) y ω (3) es decir, las tres primeras iteraciones del
método de Gauss-Seidel.

(c) Tomando ω (3) como la solución del sistema lineal obtenido en la parte (a), obtenga un
polinomio de interpolación de grado 3 que aproxime la solución de la ecuación diferencial
x(t) en el intervalo [ 14 , 12 ].
Índice Alfabético

Análisis del error en el método de la secante, Soluciones de ecuaciones no lineales, 24


38
Análisis del error en el método de Newton, 28 Underflow–Overflow, 6
Análisis del error en el método de bisección, 26 Unidad de redondeo de un computador, 5

Condiciones de convergencia del método de New-


ton multivariable, 35
Condiciones de convergencia en el método de
Newton, 32

Error de representación punto flotante, 4


Error en sumas, 16
Error relativo de la representación punto flotante,
4
Error y fuentes de errores, 6
Estabilidad en métodos numéricos, 16

Inestabilidad numérica de métodos, 18

Método de bisección, 24
Método de la secante, 37
Método de Newton, 27
Método de Newton en varias variables, 33
Métodos iterativos de punto fijo, 39
Método de la posición falsa, 39
Mayor entero positivo representable en forma
exacta, 6

Número punto flotante por corte, 3


Número punto flotante por redondeo, 3

Pérdida de dı́gitos significativos, 9


Propagación de error, 11
Propagación de error en evaluación de funciones,
14
Punto fijo de una función, 39

Representación binaria, 2
Representación decimal, 1
Representación en una base β > 1, 2
Representación punto flotante de números, 1

245
Referencias

[1] Kendall Atkison, Elementary numerical analysis. John Willey & Sons, Inc. 1985.

[2] Richard L. Burden, J. Douglas Faires, Análisis numérico. (Séptima edición) International
Thomson Editores, 2002.

[3] Steven C. Chapra, Raymond P. Canale, Métodos numéricos para ingenieros. McGraw–Hill,
1999.

[4] Lars Elden, Linde Wittmeyer–Koch, Hans Bruun Nielsen, Introduction to numerical
computation–analysis and matlab illustrations. Studentlitteratur AB, 2004.

[5] Curtis F. Gerald, Patrick O. Wheatley, Análisis numérico con aplicaciones. (Sexta edición).
Pearson Educación, 2000.

[6] Desmond J. Higham, Nicholas J. Higham, Matlab guide. SIAM, 2000.

[7] David Kincaid, Ward Cheney, Análisis numéricos: las matemáticas del cálculo cientı́fico.
Addison–Wesley Iberoamericana, 1994.

[8] John Mathews, Kurtis D. Fink, Métodos Numéricos con MatLab. Prentice Hall, 2003.

[9] Clever B. Moler, Numerical computing with matlab. SIAM, 2004.

[10] Shoichiro Nakamura, Análisis numérico y visualización con Matlab. Pearson Educación,
1997.

[11] James M. Ortega, Numerical analysis: a second course. SIAM 1990.

[12] W. Allen Smith, Análisis numérico. Prentice–Hall Hispanoamericana S.A., 1988.

[13] J. Stoer, R. Burlirshc, Introduction to numerical analysis. (Third edition). Text in Applied
Mathematics 12, Springer, 2002.

[14] G. W. Stewart, Afternotes on numerical analysis. SIAM, 1996.

[15] G. W. Stewart, Afternotes goes to graduate school: lectures on advanced numerical analysis.
SIAM, 1998.

246

Potrebbero piacerti anche