Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sergio Plaza1
1
Depto. de Matemática, Facultad de Ciencias, Universidad de Santiago de Chile, Casilla 307–Correo
2. Santiago, Chile. e–mail splaza@lauca.usach.cl, Homepage http://lauca2.usach.cl/˜splaza
Contenidos
1 Teorı́a de Error 1
1.1 Representación punto flotante de números . . . . . . . . . . . . . . . . . . . . . 1
1.2 Corte y redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Precisión de la representación punto flotante . . . . . . . . . . . . . . . . 5
1.2.2 Unidad de redondeo de un computador . . . . . . . . . . . . . . . . . . . 5
1.2.3 Mayor entero positivo representable en forma exacta . . . . . . . . . . . . 6
1.2.4 Underflow–overflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Definición y fuentes de errores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Fuentes de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Pérdida de dı́gitos significativos . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Propagación de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Propagación de error en evaluación de funciones . . . . . . . . . . . . . . . . . . . 14
1.5 Errores en sumas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Estabilidad en métodos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Inestabilidad numérica de métodos . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Ecuaciones no Lineales 24
2.1 Método de bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 Análisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Análisis del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Método de Newton multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Método de la secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 Análisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Método de la posición falsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
i
ii
4 Interpolación 153
4.1 Interpolación de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
4.1.1 Aproximación lineal por trozo o de grado 1 . . . . . . . . . . . . . . . . . 153
4.2 Polinomio de Lagrange de grado n . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.4 Método de las diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.5 Cálculo de diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
iii
Teorı́a de Error
x = σ · x · 10e (1.1)
4. e = 0.27182818 . . . × 101
x = σ · x · 2e (1.2)
1
Sergio Plaza 2
con a1 = 1 y ai = 0 o 1 para i 2 .
x = (0.a1 a2 . . . ak . . .)β
a1 a2 ak
= + 2 + ···+ k + ···
β β β
= a1 β −1 + a2 β −2 + · · · + ak β −k + · · · .
Definición 1.1 Sea x ∈ R , x = 0 , con representación en una base entera β > 1 dada por
(1.4). La representación punto foltante por corte en el dı́gito k de x es dada por
donde L e U .
La razón para introducir corte, es que algunas máquinas usan corte después de cada operación
aritmética.
Definición 1.2 Sea x ∈ R , x = 0 , con representación en una base entera β > 1 dada por
(1.4). La representación punto flotante por redondeo en el dı́gito k de x es dada por
⎧
⎪
⎪ σ (0.a1 a2 . . . ak )β β e , si 0 ak+1 < β2
⎪
⎨
f l (x) = (1.6)
⎪
⎪
⎪
⎩ σ (0.a1 a2 . . . ak )β + 0.00 . . . posición
1 β e , si β
2 ak+1 < β
k
β
donde L e U .
Observación. Esta definición formal no es otra que la que usamos comúnmente al redondear
cantidades a diario, por ejemplo al calcular el promedio final de las notas obtenidas en este
curso.
Para la mayorı́a de los números reales se tiene que f l (x) = x . Por esta razón introducimos
el error relativo o porcentaje de error
donde
a’) 0
x−fxl(x)
β −k+1 cuando f l (x) es obtenido por corte desde x
β −k+1
b’) 0
x−fxl(x)
2 cuando f l (x) es obtenido por redondeo desde x .
Notemos que desde la fórmula b’), para redondeo a k dı́gitos, tenemos que
1 −k+1
|E(f l(x))| = |x − f l(x)| β |x| ,
2
ahora, como x = σ · x · β e y |x̄| < 1 , obtenemos
1 −k+1 1 1
|x − f l(x)| β |x| = β −k+1 |x|β e β e−k+1 , (1.8)
2 2 2
es decir,
Sergio Plaza 5
1 e−k+1
|E(f l(x))| = |x − f l(x)| β (1.9)
2
2. δ es el menor número punto flotante tal que f l (1 + δ) > 1 , es decir, si δ0 < δ entonces
f l (1 + δ0 ) = 1 .
Luego, para cualquier otro número punto flotante positivo δ < δ , se tiene que f l δ + 1 = 1 ,
ası́ dentro de la aritmética del computador 1 + δ y 1 son iguales. Note que δ mide “el ancho
del cero” en una máquina.
Esto da una medida de cuántos dı́gitos de precisión son posibles en la representación de un
número. La unidad de redondeo δ para una máquina con k dı́gitos en la mantisa, es dada por
β −k+1 definición por corte de f l (x)
δ= 1 −k+1
2β definición por redondeo de f l (x)
Por ejemplo, para una máquina con aritmética binaria con k dı́gitos y redondeo para la
aritmética tenemos que δ = 2−k (y por corte se tiene que δ = 2−k+1 ) . En efecto, tenemos que
1 + 2−k = (0.100 . . .)2 + 0.00 . . . 0 1 0 21
posición k + 1
2
= (0.10 . . . 010)2 21 (1.11)
Tomando f l 1 + 2−k notamos que en la posición k + 1 de la mantisa existe un 1. Luego
f l 1 + 2−k = (0.10...01)2 21
por lo tanto f l 1 + 2−k > 1 , y también tenemos que f l 1 + 2−k = 1 + 2−k .
El hecho de que δ no puede ser menor que 2−k se sigue de (1.11). Ahora, si δ < δ entonces
1 + δ tiene un cero en la posición k + 1 de la mantisa, y por definición se tiene entonces que
f l 1 + δ = 1.
Sergio Plaza 6
1.2.4 Underflow–overflow
Si una máquina trabaja con aritmática de k dı́gitos. Dado un número real x ∈ R , x = 0 ,
si al representar x en nuestra aritmática, las cotas L o U para los exponentes son violados,
entonces el número de máquina asociado a x
donde el dı́gito ãk es dado por corte o redondeo, no puede ser representado en tal máquina.
Por ejemplo, el menor número positivo punto flotante es xL = (0.10 . . . 0)β β L = β L−1 , y
usando la notación γ = β−1 , el mayor número positivo punto flotante es xU = (0.γ . . . γ)β β U =
1 − β −k β U . Luego todo número punto flotante positivo x , representable en la máquina,
deben satisfacer xL x xU .
Si durante las operaciones aritméticas obtenemos como resultado un valor de x tal que
|x| > |xU | entonces aparecerá un error fatal, este error es denominado overflow, y los cálculos
se detienen. Por otra parte, si 0 < |x| < xL entonces f l (x) = 0 y los cálculos continuaran.
Este error se denomina error de underflow.
E (xA ) = xT − xA (1.12)
xT − xA
ER (xA ) = , xT = 0 (1.13)
xT
f l (x) = 0.37215
f l (y) = 0.37202
E(f l(x) − f l(y)) = f l (x)
− f l (y) = 0.00013
Algunas veces usamos el número de dı́gitos significativos como una forma medir la precisión
de la representación, el cual es calculado como sigue. Dados xT y xA como antes, si
xT − xA
|ER (xA )| =
5 × 10−m−1 (1.14)
xT
E1) Errores de Modelación. Ecuaciones matemáticas son usadas para representar reali-
dades fı́sicas, este proceso se denomina modelación. La modelación introduce errores en
el problema real que se está tratando de resolver, y caen fuera del alcance del análisis
numérico.
Ilustramos la noción anterior con algunos modelos.
E2) Desatinos o Equivocaciones. Estos son la segunda fuente de errores, muy familiar,
estan más relacionados con problemas de programación. Para detectar tales errores es im-
portante tener alguna forma de chequear la precisión de la salida después de la ejecución
del programa, los cuales son llamados programas test y están basados en resultados cono-
cidos de antemano.
E3) Datos Fı́sicos. Estos contienen de modo natural errores observacionales. Como estos
contienen errores, cálculos basados en ellos también los tendrán. El Análisis numérico, no
puede remover estos errores pero debe sugerir procedimientos de cálculo que minimizan
la propagación de ellos.
Por ejemplo, las ecuaciones de la Fı́sica sólo consideran parte de las variables que influyen
en un fenómenos, despreciando otras que tienen menor influencia, por ejemplo las ecua-
ciones de la Fı́sica escolar, son simplificaciones brutales de la realidad, por otro lado, las
ecuaciones de la Teorı́a de la Relatividad considera variables que a escala pequeña no
tienen mayor importancia.
E4) Error de Máquina. Las máquinas naturalmente introducen errores principalmente por
corte y redondeo. Estos errores son inevitables cuando se usa la aritmética de punto
flotante y ellos forman la principal fuente de error en algunos problemas, por ejemplo
soluciones de sistemas de ecuaciones lineales, como veremos en el respectivo capı́tulo,
mostrando que en ejemplos sencillos podemos obtener soluciones absurdas para ecuaciones
simples. También están los ejemplos de expresiones matemáticamente equivalentes, pero
que al trabajar con aritmética de computador producen resultados diferentes.
E5) Error de Aproximaciones Matemáticas. Estos forman la mayor parte de los errores,
estas provienen del hecho que el computador sólo puede trabajar con una cantidad finita de
números, ası́ por ejemplo al calcular el área de un cı́rculo debemos usar el número π , pero
la verdad es que usamos sólo una aproximación de este número, por lo tanto el resultado
obtenido no puede ser exacto por esta razón. Otro ejemplo es que cuando trabajamos
con funciones, debemos usar aproximaciones, en general dadas por polinomios de Taylor,
por ejemplo las máquina para calcular el valor de sen(x) para un dado valor de x usa
tales aproximaciones, lo mismo ocurre cuando evalúa funciones elementales tales como
1 2
cos(x) , ex , etc. Por ejemplo, si deseamos calcular el valor de 0 ex dx tenemos algunos
problemas, pues esta integral no es expresable en términos de funciones elementales, pero
usando series de Taylor se tiene que
x4 x6
ex = 1 + x2 +
2
+ + ···
2! 3!
de donde, usando una aproximación por un polinomio de Taylor obtenemos una aproxi-
mación para el valor de integral dado por
1 1
x2 2 x4 x6 1 1 1
e dx ≈ 1+x + + dx = 1 + + + = 1.457142285 . . . .
0 0 2! 3! 3 10 42
1 2
Observación. El valor de la integral 0 ex dx con 20 dı́gitos es 1.4626517459071816088
Sergio Plaza 9
x2 − 18x + 1 = 0
√ √ √
tiene soluciones x1 = 9 + 80 y x2 = 9 − 80 . Si consideramos 80 con 4 dı́gitos decimales
correctos, obtenemos
1−cos(x)
Ejemplo 5 Consideremos la función f (x) = x2 . Si usamos desarrollos en series de
Taylor, obtenemos
1 x2 x4 x6
f (x) = 1 − 1 − + − + R6 (x)
x2 2! 4! 6!
2 4 6
1 x x x
= − + − cos (x) ,
2! 4! 6! 8!
1
de donde f (0) = 2 , y para |x| < 0.1 , tenemos que
6
x
−6
cos (x)
< 10 = 2.5 × 10−11 .
8!
8!
1 2 4
Luego la aproximación f (x) = 2! − x4! + x6! , para |x| < 0.1 posee la precisión dada arriba.
Esto nos brinda una manera mucho más fácil para evaluar f (x) .
Ejemplo 6 Sea y = x − sen(x) . Como sen(x) ≈ x para valores pequeños de x , este cálculo
tendrá una perdida de dı́gitos significativos ¿Cómo puede evitarse?
Una forma alternativa para la función y = x − sen(x) resulta del desarrollo en serie de Taylor
alrededor de x = 0 . Luego,
x3 x5 x7 x3 x5 x7
y = x − sen(x) = x − x − + − + ··· = − + + ···
3! 5! 7! 3! 5! 7!
xT ω yT − xA ω yA = xT ω yT − xA ω yA + xA ω yA − xA ω yA (1.15)
Error Propagado Error de redondeo o corte
si usamos corte.
Lo anterior nos da el redondeo o corte verdadero usado.
Para el error propagado examinaremos algunos casos particulares.
E(xA yA ) = xT yT − xA yA
= xT yT − (xT − ε) (yT − η)
= xT η + yT ε − εη
de donde,
Sergio Plaza 12
xT yT − xA yA
ER (xA yA ) =
xT yT
η ε εη
= + − ,
yT xT xT yT
es decir,
Observemos que si |ER (yA )| , | ER (xA )| << 1 ( << significa “mucho menor que”) entonces
ER (xA yA ) ≈ ER (xA ) + ER (yA ) .
Caso b. División.
xA ER (xA ) − ER (yA )
ER = (1.18)
yA 1 − ER (yA )
Si | ER (yA )| << 1 se tiene que ER xA
yA ≈ ER (xA ) − ER (yA ) .
Observación. Para las operaciones de multiplicación y división, los errores relativos no se
propagan rápidamente.
por lo tanto
Esto parece ser bastante bueno y razonable, pero puede ser engañoso. El error relativo en
xA ± yA puede ser bastante pobre cuando es comparado con ER (xA ) y ER (yA ) .
22
Ejemplo 9 Consideremos xT = π , xA = 3.1416 , yT = 7 , e yA = 3.1429 . Tenemos
Sergio Plaza 13
|E (uA )| =
E (3 − xA )2
= |E ((3 − xA ) (3 − xA ))| =
2 (3 − xT ) E (3 − xA ) − (E (3 − xA ))2
2 |3 − xT | |E (3 − xA )| +
E (3 − xA )2
2 × 0.002 |E (xA )| + |E (xA )|2
2
10−3 10−3
2 × 0.002 × 2 + 2 = 0.225 × 10−5 .
2
|xT − 6| |E (xA )| + |xT | |E (xA )| + |E (xA )|
1
1 2
2.999 × 2 × 10−3 + 3.002 21 × 10−3 + 2 × 10−3 = 0.00300075.
Sergio Plaza 14
luego,
f (xT ) f (xT )
ER (f (xA )) ≈ (xT − xA ) ≈ xT ER (xA ) (1.22)
f (xT ) f (xT )
(x)
El número κ(x) = ff (x) x es llamado el número de condición de f (x) . Si | limx→xT κ(x)| =
+∞ , decimos que la evaluación de f para x ≈ xT es numéricamente inestable. Caso contrario,
decimos que la evaluacion de f para x ≈ xT es estable.
Notemos que si min{f (x) : x entre xT y xA } = 0 , entonces
sen( π π
3 +x)−sen( 3 −x)
Ejemplo 12 Considere la función f (x) = 2x .
Veamos si esta función es numéricamente estable la evaluación de f (x) para x ≈ 0 .
Primero un argumento teórico de resta de números parecidos nos muestra que f (x) es
numéricamente inestable en su evaluación para x ≈ 0 . Vemos si hay perdida de dı́gitos
significativos evaluando f (x) para x = 10−n con n = 1, 2, . . . , 13 . Tenemos la siguiente
tabla
xn f (x)
1
x1 = 10 0.017450368
1
x2 = 102 0.017450377
1
x3 = 103 0.017450377
1
x4 = 104 0.017450377
1
x5 = 105 0.01745038
1
x6 = 106 0 0.0174504
1
x7 = 107 0.0174505
1
x8 = 108 0.01745
1
x9 = 109 0.0174
Observe que el error entre las cantidades x8 y x9 , lo cual denotamos por E (x8 , x9 ) , es
E (x8 , x9 ) = |0.01745 − 0.0174| = 0.00005 , como el error es un valor grande tenemos inestabili-
dad numérica. Recuerde que en números de partida próximos se debe tener imágenes próximas.
Determinemos ahora un polinomio de grado mayor o igual a uno, que aproxime a f (x) y
que sea numéricamente estable para x ≈ 0 . Desarrollando, obtenemos la expresión siguiente
para f ,
π √
sen( π3 ) cos(x) + sen(x) cos( π3 ) − sen( π3 ) cos(x) + sen(x) cos 3 3 sen(x)
f (x) = = .
2x 2 x
3 5 7
que sen(x) = x − 3! + 5! − 7! + · · · ,
x x x
Ahora, desarrollando sen(x) en serie de Taylor tenemos
√ √
3 sen(x) 3 x2 x4 x6
luego f (x) = 2 = 2 1 − 3! + 5! − 7! + · · · . Consideramos la siguiente aproxi-
√
x
√
mación polinomial p(x) = 23 sen(x)
x ≈ 2
3
1 − x2
6 para f , y vemos que en ella no existe
resta de números parecidos luego es estable. Por otra parte, si calculamos el número condición
obtenemos para nuestra aproximación polinomial, tenemos
p (x) x − x3 2x2
κ(x) = x = = −
p (x) 1 − x6
2
6 − x2
(x)
y para valores x ≈ 0 se tiene que x pp(x) ≈ 0 , de donde concluimos que nuestra aproximación
es numéricamente estable.
Sergio Plaza 16
S3 = f l (a3 + S2 )
S4 = f l (a4 + S3 )
..
.
Sn = f l (an + Sn−1 )
S2 = (a1 + a2 ) (1 + ε2 )
S3 = (a3 + S2 ) (1 + ε3 )
..
.
Sn = (an + Sn−1 ) (1 + εn ) .
Los término en la expresión anterior pueden ser combinados, manipulados y estimados, obte-
niendo lo siguiente
S − Sn = −a1 (ε2 + · · · + εn )
−a2 (ε2 + · · · + εn )
−a3 (ε3 + · · · + εn )
..
.
−an εn
números de longitud finita y aritmética de computador. Estos conceptos son entonces exten-
didos a métodos numéricos usados para calcular la solución. En general, queremos que los
métodos numéricos usados no tengan sensibilidad a pequeños errores más allá de los originados
en el problema matemático mismo.
Para simplificar, supongamos que nuestro problema viene dado por
F (x, y) = 0. (1.23)
La variable x es la incógnita buscada y la variable y son los datos de los cuales depende
la solución. Por ejemplo F puede ser una función real de dos variables, o x puede ser una
variable real e y puede ser un vector, puede ser una ecuación diferencial o integral o funcional,
etc.
Diremos que el problema (1.23) es estable si la solución x depende continuamente de la vari-
able y , esto significa que si (yn )n∈N es una sucesión de valores aproximándose a y , entonces
los valores solución asociados (xn )n∈N deben aproximarse a x de la misma forma. Equivalen-
temente si hacemos pequeños cambios en y esos deben corresponder a pequeños cambios en
x . El sentido en el cual los cambios son pequeños depende de la norma que se este usando en
x e y , respectivamente, existen varias elecciones posibles, variando de problema en problema.
Problemas estables son también llamados well-posed problems. Si un problema no es estable,
este es llamado inestable o ill-posed problem.
x + 2y = 3
0.5x + 1.000001y = 1.5
x + 2y = 3
0.4999999x + 1.000001y = 1.5
ax2 + bx + c = 0, a = 0
cualquier solución es un número complejo, los datos de este caso son y = (a, b, c) vector de los
coeficientes y la solución esta dado por
√
−b ± b2 − 4ac
x=
2a
Sergio Plaza 18
F (x + δx , y + δy ) = 0.
Definimos
δx
x
κ (x) = sup δy
(1.24)
δy
y
x
a y − 1
κ (x) = sup
= sup
y
x
.
δy
δy
δy δy
3. Determine una aproximación polinomial de grado mayor o igual a tres para f (x) en el
intervalo |x| < 0.5 , la cual sea numéricamente estable.
√ √ √ √
3
√
3
3 1+ 1−x2 + (1−x2 )2
− 1− x1−x 1+√1−x2 1− 1−x2 √
2
= 2
1+ 1−x2
+ x2 √
3 3
1+ 1−x2 + (1−x2 )2
=− √1 + √
1√
1+ 1−x2 1+ 3
1−x2 + 3 (1−x2 )2
Finalmente, para encontrar una paroximación que sea numéricamente estable para f (x) ,
sean
F (x) = 1 − x2 , G(x) = 1 − x2
3
x2 x4 2x6
G (x) ≈ 1 − 3 − 9 − 9
por lo tanto
x2 x4 x6 x2 x4 2x6
1− − − −1+ + + 1 1 49 4
f (x) ≈ 2 8 16 3 9 9
= − − x2 − x
x2 6 72 1296
Sergio Plaza 20
1. Usando el Teorema del Valor Medio, estudie la propagación del error para u y v.
ya que xA = 1.00011 está redondeado a 6 dı́gitos, entonces se tiene que |E (xA )| 0.5 ·
10−6+1+1 = 0.5 · 10−4 .
Definamos g (x) = x (x − 3) + 2, de donde se tiene que g (x) = 2x − 3. Luego
Por otro lado sabemos que |E (xA )| 0.5 · 10−6+1+1 = 0.5 · 10−4 por lo tanto
1 1 1 1
16666.67 y 1.0001600256 .
|xT − 1| 0.00006 |xT − 2| 0.99984
por lo tanto
|uT − uA |
ER (uA ) = 4.9989 · 10−5 (16666.67) (1.0001600256) 0.8323283325329
|uT |
1.9 Ejercicios
Problema 1.1 La ecuación de segundo grado ax2 + bx + c = 0 se resuelve usualmente por
las fórmulas √ √
−b + b2 − 4ac −b − b2 − 4ac
x1 = , x2 = .
2a 2a
Sergio Plaza 21
2c 2c
x1 = √ , x2 = √ .
2
−b − b − 4ac −b + b2 − 4ac
Escriba un programa en MatLab que resuelva las ecuaciones de segundo grado de las dos
maneras indicadas. Ejecute el programa cuando
(i) a = 1.0 , b = −5.0 , c = 6.0 , (ii) a = 1.0 , b = 12345678.03 , c = 0.92 .
Problema 1.2 Usando MatLab calcule x + y + z de las dos formas matematicamente equiva-
lentes, x+ (y + z) y (x+ y)+ z cuando (i) x = 1.0 , y = −5.0 , z = 6.0 , (ii) x = 1 × 1020 ,
y = −1 × 1020 , z = 1.0 . Explique los resultados obtenidos.
Problema 1.3 Con MatLab, usando el formato largo, calcule h = 1/3333 . Enseguida sume
3333 veces la cnatidad obtenida. También multiplique dicha cantidad por 3333. Explique los
resultados obtenidos.
π
tan 4 + x − tan π4 − x
Problema 1.4 Considere la función h (x) =
2x
3. Usando desarrollos de Taylor, determine un polinomio de grado mayor o igual que 4, que
aproxime a h(x) y que sea numéricamente estable en su evaluación para x ≈ 0 .
1. Calcule el error absoluto y el error relativo (en valor absoluto) en las soluciones apro-
ximadas.
2. Una de ellas tiene perdida del dı́gitos significativos. Proponga una expresión algebraica
matemáticamente equivalente para evitar la perdida de dı́gitos significativos en ese caso.
Justifique la respuesta calculando el nuevo error relativo (en valor absoluto).
sen(x) − x
Problema 1.8 Sea f (x) = .
x
2. Encuentre una aproximación polinomial de grado mayor o igual que 3 para f (x) y que
sea estable numéricamente para la evaluación cuando x ≈ 0 .
2. Qué puede decir acerca de la presición que se puede obtener para u y v , para un deter-
minado valor de x ?
Problema 1.11 Sea xA = 2.0015 , redondeado al número de dı́gitos señalados. Considere las
expresiones matemáticamente equivalentes: u = (x−4)2 , v = (x−4)(x−4) , w = (x−8)x+16 .
2. Estudie la propagación del error (absoluto) en cada una de las expresiones correspondientes,
determinando buenas cotas para los valores absolutos de cada uno de los errores respec-
tivos.
e2x − 1
Problema 1.14 Considere la función f (x) = .
2xex
ii) Determine un polinomio de grado mayor o igual que 3, que aproxime a f (x) y que sea
estable numéricamente para x ≈ 0 .
cos(π/3 + x) − cos(π/3 − x)
Problema 1.16 Considere la función f (x) = .
2x
ii) Determine un polinomio de grado 1, que aproxime a f (x) y que sea estable numéricamente
para x ≈ 0 .
Problema 1.17 Considere la función f (x) = x + 1/x − x − 1/x .
ii) Proponga una expresión algebraica, que sea matemáticamente equivalente a f (x) y que
sea numéricamente estable en la evaluación para x ≈ 0 .
iii) Determine un polinomio de grado mı́nimo mayor que 0, que aproxime a f (x) , y que sea
estable numéricamente para la evalución en x ≈ 0 . Además, obtenga una buena cota
para el error correspondiente con |x| 0.1 y x = 0 .
(a) Para xA = 2.01 , redondeado al número de dı́gitos señalados, evalué las expresiones equiv-
alentes de acuerdo a lo expresado arriba, y compare las precisiones de ambos resultados.
(b) Estudie la propagación del error absoluto en ambas expresiones, uA y vA , acotando los
errores correspondientes (en valor absoluto) Qué puede decir acerca de lo concluido en
a)?
Capı́tulo 2
Ecuaciones no Lineales
Teorema 2.1 (del valor intermedio) Sea f : [a, b] −→ R una función continua. Supongamos
que f (a) y f (b) tienen signos diferentes, entonces existe r ∈ (a, b) tal que f (r) = 0 .
Aunque el procedimiento se aplica en el caso en que f (a) y f (b) tengan signos diferentes y
exista más de una raı́z en el intervalo (a, b) , por razones de simplicidad suponemos que la raı́z
de este intervalo es única. El método requiere dividir varias veces en la mitad los subintervalos
de [a, b] y en cada paso localizar aquella mitad que contenga a la raı́z r . Para comenzar
consideremos a0 = a y b0 = b , y sea c0 el punto medio de [a, b] , es decir, c0 = a0 +b 2
0
. Si
f (c0 ) = 0 , entonces r = c0 ; si no, entonces f (c0 ) posee el mismo signo que f (a0 ) o que
f (b0 ) . Si f (c0 ) y f (a0 ) tienen igual signo, entonces r ∈ (c0 , b0 ) y tomamos a1 = c0 y
b1 = b0 . Si f (c0 ) y f (a0 ) tienen signos opuestos, entonces r ∈ (a0 , c0 ) y tomamos a1 = a0
y b1 = c0 . Enseguida, volvemos a aplicar el proceso al intervalo [a1 , b1 ] , y ası́ sucesivamente.
|pN − pN −1 | ε (2.1)
24
Sergio Plaza 25
|pN − pN −1 |
ε, pN = 0 (2.2)
|pN |
|f (pN )| ε (2.3)
Al usar cualquiera de estos criterios de parada pueden surgir problemas. Por ejemplo, existen
sucesiones (pn )n∈N con la propiedad de que las diferencias pn −pn−1 convergen a cero, mientras
que la sucesión diverge, esto se ilustra con la sucesión siguiente, sea (pn )n∈N la sucesión dada
n
1
por pn = k , es conocido que (pn )n∈N diverge aún cuando se tiene lim (pn − pn−1 ) = 0 .
n→∞
k=1
También es posible que f (pn ) este cercano a cero, mientras que pn difiere significativamente
10
de r , como lo ilustra la siguiente sucesión. Sea f (x) = (x − 1) , tenemos que r = 1 , tomando
pn = 1 + n1 es fácil ver que |f (pn )| < 10−3 para todo n > 1 , mientras que |r − pn | < 10−3
sólo si n > 1000 . En caso que no se conozca r , el criterio de parada (2.2) es el mejor al cual
puede recurrirse, ya que verifica el error relativo.
Observe que para iniciar el algoritmo de bisección, tenemos que encontrar un intervalo [a, b] ,
de modo que f (a) · f (b) < 0 . En cada paso, la longitud del intervalo que se sabe contiene
una raı́z de f se reduce en un factor de 12 ; por lo tanto, conviene escoger un intervalo inicial
[a, b] lo mas pequeño posible. Por ejemplo, si f (x) = x2 − 1 , entonces f (0) · f (2) < 0 y
también f (0.75) · f (1.5) < 0 , de manera que el algoritmo de bisección puede emplearse en
ambos intervalos [0, 2] o [0.75, 1.5] . Al comenzar el algoritmo de bisección en [0, 2] o con
[0.75, 1.5] , la cantidad de iteraciones necesarias para alcanzar determinada exactitud varia.
El siguiente ejemplo ilustra el algoritmo de bisección. La iteración se termina cuando el error
relativo es menor que 0.0001 , es decir, cuando
|cn − cn−1 |
< 10−4 .
|cn |
Ejemplo 19 La ecuación f (x) = x3 + 4x2 − 10 posee una raı́z en [1, 2] ya que f (1) = −5 y
f (2) = 14 . El algoritmo de bisección puede ser resumido por la siguiente tabla
n an bn cn f (cn )
1 1.0 2.0 1.5 2.375
2 1.0 1.5 1.25 −1.79687
3 1.25 1.5 1.375 0.16211
.. .. .. .. ..
. . . . .
13 1.36499024 1.3671875 1.365112305 −0.00194
Después de 13 iteraciones, c13 = 1.365112305 aproxima a la raı́z r con un error de |r − c13 | <
|b13 − a13 | = 0.000122070 , ya que |a13 | < |r| , obtenemos
El método de bisección, aunque claro desde el punto de vista conceptual, ofrece inconvenientes
importantes, como el de converger lentamente, es decir, la cantidad de iteraciones puede ser
demasiado grande para poder obtener que cn este lo próximo a r , además, inadvertidamente
podemos desechar una aproximación intermedia. Sin embargo, tiene la importante propiedad
de que siempre converge en una solución y por tal razón a menudo sirve para iniciar los métodos
más eficientes que explicaremos más adelante.
a0 a1 · · · b 0
luego la sucesión (an )n∈N es creciente y acotada superiormente. Tenemos también que
b 0 b 1 · · · a0
1 1 1
b n − an = (bn−1 − an−1 ) = (bn−2 − an−2 ) = · · · = n (b0 − a0 ) ,
2 4 2
se sigue que limn→∞ (bn − an ) = 0 , luego limn→∞ bn = limn→∞ an = r . Ahora como
2
f (an ) f (bn ) 0 , haciendo n → ∞ se tiene que (f (r)) 0 , pues f es continua, de donde
f (r) = 0 .
Si el proceso se detiene en la iteración n , entonces f posee una raı́z en el intervalo [an , bn ]
y
1
|r − cn | (bn − an ) = 2−(n+1) (b0 − a0 ) .
2
Resumiendo lo anterior, tenemos el siguiente resultado.
Teorema 2.2 Sean [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] , . . . , [an , bn ] , . . . los intervalos obtenidos en el
método de bisección, entonces limn→∞ bn = limn→∞ an = r y r es una raı́z de f (x) = 0 .
Además, se tiene que |r − an | 2−n (b0 − a0 ) y |r − bn | 2−n (b0 − a0 ) . Por otra parte, si
cn = an +b
2
n
entonces r = limn→∞ cn y |r − cn | 2−(n+1) (b0 − a0 ) .
Es importante señalar que el teorema sólo nos proporciona una cota del error de aproxima-
ción y que esta puede ser extremadamente conservadora. Por ejemplo, cuando la aplicamos al
problema del ejemplo anterior sólo garantiza que |p − p9 | 2−1
29 ≈ 2 × 10
−3
pero el error real
−6
es mucho menor |p − p9 | ≈ 4.4 × 10 .
Sergio Plaza 27
Aplicando logaritmo a la desigualdad 2−(N +1) 10−3 vemos que el valor del entero positivo
N debe ser mayor que 9.96 , por lo tanto para obtener una exactitud de 10−3 debemos iterar
al menos 10 veces.
x0
x1
•
x2
y − f (x0 ) = f (x0 ) (x − x0 )
ası́ la intersección con eje x está dada por −f (x0 ) = f (x0 ) (x1 − x0 ) , despejando x1 obten-
emos
f (x0 )
x1 = x0 − ,
f (x0 )
si f (x0 ) = 0 . Aplicamos ahora este procedimiento comenzando con x1 , para determinar la
intersección x2 de la recta tangente al gráfico de f en el punto (x1 , f (x1 )) con el eje x basta
observar que dicha recta tiene por ecuación
Sergio Plaza 28
y − f (x1 ) = f (x1 ) (x − x1 )
ası́ la intersección con eje x esta dada por −f (x1 ) = f (x1 ) (x2 − x1 ) , despejando x2 obten-
emos
f (x1 )
x2 = x1 − ,
f (x1 )
f (x2 )
x3 = x2 −
f (x2 )
f (xn )
xn+1 = xn − (2.4)
f (xn )
si f (xn ) = 0 .
k 0 1 2 3 4
xk 0.5 0.75 0.9374999998 0.9960937501 0.9999847417
Un buen ejercicio para el lector es esbozar una explicación para lo que está ocurriendo en
este caso.
en = xn − r (2.5)
1
0 = f (r) = f (xn − en ) = f (xn ) − en f (xn ) + e2n f (ξn )
Taylor
2
donde ξn está entre xn y r . De esta última ecuación obtenemos
e2n
en f (xn ) − f (xn ) = f (ξn ) .
2
Luego
1 f (ξn ) 2 1 f (r) 2
en+1 = e ≈ e = Ce2n
2 f (xn ) n
2 f (r) n
f (ξn )
Podemos formalizar lo anterior como sigue, si en es pequeño y f (xn ) no es muy grande,
entonces en+1 será más pequeño que en .
Definamos
max |f (x)|
1 |x−r|<δ
C (δ) = (2.6)
2 min |f (x)|
|x−r|<δ
donde δ > 0 es tal que |f (x)| > 0 para |x − r| < δ . Eligiendo δ > 0 más pequeño, si es
necesario, podemos
suponer
que δ C (δ) < 1 , podemos hacer esto pues cuando δ −→ 0 se tiene
f (r)
que C (δ) −→
2f (r)
, luego δ C (δ) −→ 0 si δ −→ 0 . Denotemos ρ = δ C (δ) . Comenzando
las iteraciones del método de Newton con x0 tal que |x0 −
r|< δ
obtenemos que |e0 | δ y
(ξ0 )
|e1 | ρ |e0 |
|e2 | |e1 | ρ ρ2 |e0 |
..
.
|en | ρn |e0 | −→ 0, cuando n −→ ∞
2
|xn+1 − r| C (xn − r) .
El siguiente teorema sobre la conducta local del método de Newton muestra que ella es muy
buena, pero como veremos despues, desde el punto de vista global no lo es tanto.
0 )M
ecuación f (x) = 0 tiene una única solución en J0 y el método de Newton con condición inicial
x0 converge a dicha solución.
es decir,
2
M |h0 |
|f (x1 )| (desigualdad 2)
2
De las desigualdades (1) y (2), obtenemos
f (x1 )
M |h0 |2
2
|h1 | =
= |h0 |2
M
f (x1 )
2
f (x0 )
f (x0 )
(x0 )
y de 2
(fMf
(x ))2
< 1 , tenemos
0
M
1
f (x0 )
1 1 1
<
f (x0 )
2
f (x0 )
= 2
f (x0 )
= 2|h0 | ,
f (x0 )
|h0 |
luego |h1 | < 2 ,y
Sergio Plaza 31
M f (x1 )
M
f (x1 )
M
= = |h1 |
(f (x1 ))2
|f (x1 )| f (x1 )
|f (x1 )|
M |h0 |
|f (x1 )| 2
|h0 | 2
f (x0 )
M = M
2 |f (x0 )|
(f (x0 ))2
.
Teorema 2.6 En las condiciones del teorema anterior, el método de Newton tiene convergen-
2
cia cuadrática, esto es, |hk+1 | |f M
(xk )| |hk | .
M|hk |2
Demostración. Dividiendo la desigualdad |f (xk+1 )| 2 por |f (xk+1 )| , obtenemos
2 2
|f (xk+1 | M |hk | 2 M |hk |
|kk+1 | =
= .
|f (xk+1 )| 2 |f (xk )| |f (xk )|
0 = 0.1
y J0 = [2 , 2.2] , puesto que f (x) = 6x sobre J0 el supremo M es 13.2. Como
Mf (x0 )
(f (x0 ))2
= 0.132 < 0.5 < 1 , el teorema garantiza que existe una raı́z de la ecuación f (x) = 0
en el intervalo [2 , 2.2], y en consecuencia el método de Newton con condición inicial x0 = 2
converge a dicha raı́z.
Observación. Podemos usar como criterios de paradas unos de los siguientes. Seleccione
una tolerancia ε > 0 y construya p1 , p2 , . . . , pN hasta que se cumpla una de las siguientes
desigualdades
|pN − pN −1 | ε (2.7)
pN − pN −1
ε, pN = 0 (2.8)
pN
o bien
|f (xN )| ε. (2.9)
El método de Newton es una técnica de iteración funcional de la forma xn+1 = g (xn ) , donde
Sergio Plaza 32
f (xn )
xn+1 = g (xn ) = Nf (xn ) = xn − , n 0.
f (xn )
cos (xn ) − xn
xn+1 = xn − , n 0.
−sen (xn ) − 1
n xn
0 0.7853981635
1 0.7395361337
2 0.7390851781
3 0.7390851332
4 0.7390851332
Para asegurarnos que tenemos convergencia, verifiquemos esas condiciones. Tenemos que
f (x) = cos(x) − x , luego f (x) = − cos(x) , la cual es continua, ahora evaluando f (x) en el
punto x = 0.7390851332 (en radianes) que es una aproximación a la raı́z verdadera, se tiene el
valor no cero siguiente, f (0.7390851332) = −sen(0.7390851332) − 1 = −1.012899111 . . . = 0 .
Sergio Plaza 33
x3n + 4x2n − 10
xn+1 = xn − , n0
3x2n + 8xn−1
√
Ejemplo 25 Si queremos resolver x3 − x − 22 = 0 utilizando el método de Newton y comen-
zamos las√iteraciones con x0 = 0.001 obtenemos una sucesión que oscila entre valores cercanos
a 0 y a 22 , y de hecho, si comenzamos con la condición inicial x0 = 0 obtenemos el ciclo
√ √ √
2 2 2
periódico 0, 2 , es decir, Nf (0) = 2 y Nf 2 = 0 .
Observación. La derivación del método de Newton por medio de las series de Taylor, subraya
la importancia de una aproximación inicial exacta. La suposición fundamental es que el término
2
que contiene (x − x) es, en comparación, tan pequeño que podemos suprimirlo. Esto eviden-
temente serı́a falso a menos que x sea una buena aproximación a la raı́z r . En particular, si
x0 no es lo suficiente próximo a la raı́z real, el método de Newton quizá no sea convergente a
la raı́z. Pero no siempre es ası́. Por ejemplo considere la ecuación x2 + 1 = 0 que no tiene
soluciones reales, y cuando le aplicamos el método de Newton obtenemos, para cualesquiera que
sea la condición inicial una sucesión que no converge a ningún valor determinado, como puede
comprobarse en la práctica sin mayores esfuerzos, realizando las iteraciones correspondientes.
f1 (x1 , x2 ) = 0
(2.10)
f2 (x1 , x2 ) = 0.
⎪
⎪
⎪
⎩ 0 = f2 (x1 + h1 , x2 + h2 ) ≈ f2 (x1 , x2 ) + h1 ∂f2 + h2 ∂f2 .
∂x1 ∂x2
⎛ ∂f ∂f1 ⎞
1
⎜ ∂x1 ∂x2 ⎟
⎜ ⎟
J(f1 , f2 ) = ⎜ ⎟, (2.11)
⎝ ∂f ∂f2 ⎠
2
∂x1 ∂x2
obtenemos
h1 f1 (x1 , x2 )
J(f1 , f2 )(x1 , x2 ) =− (2.12)
h2 f2 (x1 , x2 )
h1 f1 (x1 , x2 )
= −J −1 (f1 , f2 ) (x1 , x2 )
h2 f2 (x1 , x2 )
⎛ ⎞ ⎛ ⎞ ⎛ ⎞−1 ⎛ ⎞
(k+1) (k) ∂f1 (k) (k) ∂f1 (k) (k) (k) (k)
x1 x1 ∂x1
x1 , x2 ∂x2
x1 , x2 f1 x1 , x2
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠=⎝ ⎠−⎜
⎝
⎟
⎠
⎜
⎝
⎟
⎠
(k+1) (k) ∂f2 (k) (k) ∂f2 (k) (k) (k) (k)
x2 x2 ∂x1
x1 , x2 ∂x2
x1 , x2 f2 x1 , x2
(2.14)
Observe que esta formulación es, sin embargo, poco útil para realizar los cálculos, ya que es
poco práctico calcular la inversa de la matriz jacobiana. Sin embargo para sistemas de 2 × 2
es fácil obtener. Realizando las operaciones tenemos que
(n) (n) ∂f2 (n) (n) (n) (n) ∂f1 (n) (n)
f1 x1 , x2 x1 , x2 − f2 x1 , x2 x1 , x2
(n+1) (n) ∂x2 ∂x2
x1 = x1 − (n) (n)
det(J(f1 , f2 )(x1 , x2 ))
(2.15)
(n) (n) ∂f1 (n) (n) (n) (n) ∂f2 (n) (n)
f2 x1 , x2 x1 , x2 − f1 x1 , x2 x1 , x2
(n+1) (n) ∂x1 ∂x1
x2 = x2 − (n) (n)
det(J(f1 , f2 )(x1 , x2 ))
donde
∂f ∂f ∂f ∂f
(n) (n) 1 (n) (n) 2 (n) (n) 2 (n) (n) 1 (n) (n)
det J(f1 , f2 ) x1 , x2 = x1 , x2 · x1 , x2 − x1 , x2 · x1 , x2 .
∂x1 ∂x2 ∂x1 ∂x2
Sergio Plaza 35
Es claro que podemos generalizar el método de Newton a más de dos variables, y de deja
a cargo del lector deducir las fórmulas de iteración para un sistema de 3 ecuaciones en tres
variables (x, y, z) .
(0) (0)
Observación. En la práctica, comenzamos con (x1 , x2 ) adecuados y generamos la sucesión
dada por el método de Newton hasta satisfacer algún criterio de parada, obteniendo un punto
(N ) (N ) (N ) (N )
(x1 , x2 ) . Verificamos entonces las condiciones para ese punto, es decir, fi (x1 , x2 ) ≈ 0 ,
(N ) (N )
i = 1, 2 , det J(f1 , f2 )(x1 , x2 ) = 0 . La condición de continuidad de las segundas derivadas
parciales de f1 y f2 no depende de la sucesión de puntos generada. Si las condiciones son
(N ) (N )
satisfechas para (x1 , x2 ) , entonces existe un conjunto abierto U ⊂ R2 , con U (r1 , r2 ) ,
tal que si (x01 , x02 ) ∈ U , entonces la sucesión generada por el método de Newton converge a
(r1 , r2 ) .
Observación. En general, especialmente desde el punto de vista computacional, usar las ecua-
ciones (2.12) y (2.13) como una descompsición del método de Newton, en vez de las ecuaciones
dadas en (2.14) o en su forma explı́cita (2.15). Más genral si deseamaos resolver el sistema de
ecuaciones no lienales
⎧
⎪
⎪
f1 (x1 , x2 , . . . , xn ) = 0
⎪
⎨ f2 (x1 , x2 , . . . , xn ) = 0
.. (2.16)
⎪
⎪ .
⎪
⎩
fn (x1 , x2 , . . . , xn ) = 0
usamos el siguiente algoritmo:
(0) (0) (0)
Dado x(0) = (x1 , x2 , . . . , xn ) .
Primero: resolvemos el sistema de ecuaciones lineales
⎛ (k) ⎞ ⎛ (k) (k) (k)
⎞
h1 f1 (x1 , x2 , . . . , xn )
⎜ (k) ⎟ ⎜ (k) (k) (k) ⎟
⎜ h2 ⎟ ⎜ f2 (x1 , x2 , . . . , xn ) ⎟
⎜ ⎟ ⎜
Jk (f1 , f2 , . . . , fn ) ⎜ . ⎟ = − ⎜ ⎟ (2.17)
.. ⎟
⎝ .. ⎠ ⎝ . ⎠
(k) (k) (k) (k)
hn fn (x1 , x2 , . . . , xn )
∂g 2x ∂g 2x2
= 2 −x =− 3
∂x y ∂y y
2 3
−3x2n yn + 2 (xn yn ) − 0.5 (xn yn ) − x2n yn4 − 1.6xn − xn yn3 + 2yn2
xn+1 =
xn yn (−6xn + 6yn + xn yn2 − 2yn3 )
2 3
−6x3n yn + 5 (xn yn ) + (xn yn ) − 1.5x2n yn4 + 2xn yn3 − yn4 − 1.6xn + 8xn yn2
yn+1 =
x2n (−6xn + 6yn + xn yn2 − 2yn3 )
La siguiente tabla muestra los resultados obtenidos con el método de Newton multivariable
∂f ∂f
(x6 , y6 ) = 2x6 y6 − y62 = 2.22631238 (x6 , y6 ) = x26 − 2x6 y6 = −0.85378829
∂x ∂y
∂g 2x6 ∂g 2x2
(x6 , y6 ) = 2 − x6 = 1.1401168538 (x6 , y6 ) = − 36 = −4.130734823
∂x y6 ∂y y6
Sergio Plaza 37
luego
2.22631238 − 0.85378829
det J(f, g)(x6 , y6 ) = det = −4.486785689 ,
1.1401168538 − 4.130734823
por lo tanto el método iterativo de Newton es convergente en una vecindad de la solución exacta
(xT , yT ) del sistema.
f (x) − f (xn )
f (xn ) = lim .
x→xn x − xn
el cual depende siempre de los valores de dos iteraciones anteriores, y como valores iniciales se
tienen x0 y x1 , los cuales deben ser elegidos con cierto criterio para tener la convergencia del
método. Este método iterativo en llamado método de la secante.
Comenzando con las dos aproximaciones iniciales x0 y x1 , la aproximación x2 es la inter-
sección del eje x y la recta que une los puntos (x1 , f (x1 )) y (x0 , f (x0 )) . La aproximación x3
es la intersección con el eje x y la recta que une los puntos (x1 , f (x1 )) y (x2 , f (x2 )) , y ası́
sucesivamente.
Las condiciones para garantizar la convergencia del método de la secante en un intervalo
abierto J que contiene a la raı́z r de la ecuación f (x) = 0 , son las misma que se usan en
el método de Newton, es decir, f debe ser continua y f (r) = 0 , pero como en general no
conocemos r en forma exacta verificamos si f (xn ) ≈ 0 y f (xn ) = 0 , donde xn es nuestra
aproximación a la raı́z.
El siguiente ejemplo incluye un problema que vimos en un ejemplo anterior.
necesitamos dos aproximaciones iniciales. En la siguiente tabla aparecen los cálculos con x0 =
0.5 y x1 = π4 , y la fórmula
n xn
0 0.5
1 0.7853981635
2 0.7363841388
3 0.7390581392
4 0.7390851493
5 0.7390851332
Observación. Al comparar los resultados de ahora con los del ejemplo anterior observamos
que x5 es exacto hasta la décima cifra decimal. Nótese que la convergencia del método de la
secante es un poco más lenta en este caso que en el método de Newton, en el cual obtuvimos
este grado de exactitud con x3 . Este resultado generalmente es verdadero.
El método de Newton o el método de la secante a menudo se usan para refinar las respuestas
conseguidas con otra técnica, como el método de bisección. Dado que el método de Newton
requiere de una buena aproximación inicial, pero por lo general da una convergencia más rápida,
sirve perfectamente para el propósito antes mencionado.
obtenemos
en+1 = xn+1 − r
xn−1 f (xn ) − xn f (xn−1 )
= −r
f (xn ) − f (xn−1 )
f (xn )(xn−1 − r) − f (xn−1 )(xn − r)
=
f (xn ) − f (xn−1 )
f (xn )en−1 − f (xn−1 )en
=
f (xn ) − f (xn−1 )
f (xn ) f (xn−1 )
xn − xn−1 en − en−1
en+1 = en en−1 .
f (xn ) − f (xn−1 ) xn − xn−1
Sergio Plaza 39
e2
f (xn ) = f (r + en ) = f (r) +en f (r) + n f (r) ,
2
=0
f (xn ) f (xn−1 )
luego en ≈ f (r) + en
2 f (r) y en−1 ≈ f (r) + en−1
2 f (r) de donde
f (xn ) f (xn−1 ) 1
− ≈ (en − en−1 ) f (r) .
en en−1 2
Observemos que xn − xn−1 = en − en−1 , por lo tanto
f (xn ) f (xn−1 )
en − en−1 1
≈ f (r)
xn − xn−1 2
y como xn −xn−1 ∼
= 1
, finalmente tenemos
f (xn )−f (xn−1 ) f (r)
1 f (r)
en+1 ≈ en en−1 = Cen en−1 (2.19)
2 f (r)
Ejemplo 28 La siguiente tabla contiene los resultados del método de Regula Falsi aplicado a
la función f (x) = cos(x) − x con las mismas aproximaciones iniciales que utilizamos para el
método de la secante en el Ejemplo 27. Nótese que las aproximaciones son iguales en x3 y que
en el método de Regula Falsi requiere una iteración más para alcanzar la misma exactitud que
la de la Secante.
n xn
0 0.5
1 0.7353981635
2 0.7363841388
3 0.7390581392
4 0.7390848638
5 0.7390851305
6 0.7390851332
“Dado un problema de buscar una raı́z de f (x) = 0 , podemos definir una función g con
un punto fijo en p de diversas formas; por ejemplo, como g (x) = x − f (x) o como g (x) =
x + 3f (x) . Si la función g tiene un punto fijo en p , es decir, g(p) = p , entonces la función
definida, por ejemplo, como g (x) = x+f (x) o más general g(x) = x+ψ(x)f (x) , con ψ(p) = 0 ,
tiene un cero en p ”.
Aunque los problemas que deseamos resolver vienen en forma de búsqueda de raı́ces, la forma
de método iterativo de punto fijo puede ser más fácil de analizar; algunas opciones de punto
fijo dan origen a técnicas poderosas de búsqueda de raı́ces.
Lo primero que debemos de hacer es acostumbrarnos a este tipo de problema, y decidir cuando
una función tiene un punto fijo y cómo podemos aproximar los puntos fijos con determinado
grado de precisión.
10
6
y
4
ex
Despejando, obtenemos las funciones x = ψ1 (x) = log(3x2 ) , x = ψ2 (x) = 3x , x = ψ3 (x) =
√
3 x/2
3 e , etc.
Sergio Plaza 41
4
3.5
3 3
2.5
2
2
1 1.5
2.5
1.5
0.5
4
y
2
–2 –1 0 1 2 3
x
–2
–4
–6
gráfico de g(x) = x2 − 2
Teorema 2.7 Sea g : [a, b] −→ [a, b] una función continua, entonces g posee un punto fijo
en [a, b] .
Demostración. Usamos el Teorema del Valor Intermedio, para lo cual definimos la función
h(x) = g(x) − x . Tenemos, h(a) = g(a) − a 0 y h(b) = g(b) − b 0 , y siendo h continua,
se sigue existe c ∈ [a, b] tal que h(c) = 0 , es decir, g(c) = c .
Sergio Plaza 42
El siguiente teorema contiene condiciones suficientes para la existencia y unicidad del punto
fijo.
Corolario 2.1 Supongamos que g : [a, b] −→ [a, b] es continua en [a, b] y derivable en (a, b) .
Supongamos también que existe una constante positiva 0 λ < 1 con |g (x)| λ , para todo
x ∈ (a, b) ( λ = max{|g (x)| : x ∈ [a, b] } ), entonces el punto fijo xg de g en [a, b] es único.
Además, si elegimos x0 ∈ (a, b) arbitrario, entonces la sucesión (xn )n∈N definida por
xn+1 = g(xn ), n 0
converge a xg .
Demostración. Por el teorema anterior sabemos que g tiene un punto fijo. Ahora como
|g (x)| λ < 1 , por el Teorema del Valor Medio, tenemos
para todo x, y ∈ [a, b] , donde c está entre x e y . Ahora bien, supongamos que existen dos
puntos fijos xg y xg para g . Tenemos entonces que
..
.
|x1 − xg | = |g(x0 ) − g(xg )| λ|x0 − xg | ,
Observación. El teorema anterior no sólo nos dice que bajo sus condiciones existe un punto
fijo único, además nos dice cómo podemos encontrarlo, usando la sucesión generada a partir de
la función g con una condición inicial arbitraria.
Sergio Plaza 43
Corolario 2.2 Si g satisface las hipótesis del Teorema anterior, cotas para el error que supone
utilizar xn para aproximar xg son dadas por
y
λn
|xn − xg | |x1 − x0 | .
1−λ
Demostración. Para tener la primera de las cotas, sólo basta observar que |xn − xg |
λn |x0 − xg | y como xg y x0 están entre a y b se tiene que |xn − x0 | λn |xg − x0 |
λn max {x0 − a, b − x0 } , como querı́amos probar.
Para obtener la segunda cota observemos que si n > m , digamos n = m + k , con k 1 ,
entonces
muy lenta sı́ λ es próxima de 1. En el siguiente ejemplo, consideraremos los métodos de punto
fijo para algunos de los ejemplos vistos anteriormente.
1. λn max {x0 − a, b − x0 } ε ,
λn
2. 1−λ |x1 − x0 | ε,
3. |xn+1 − xn | ε
0.4
y
0.2
–0.4
x2 −1
gráfico de g(x) = 3
En este ejemplo el punto fijo p puede ser determinado algebraicamente por medio de la
g (p) = p 3−1 , de donde p2 −
2
fórmula para resolver ecuaciones cuadráticas, obteniéndose p =
√
1
3p − 1 = 0 y resolviendo
√ la ecuación obtenemos que p = 2 3 − 13 ≈ −0.3027756377 , la otra
1
raı́z es q = 2 (3 + 13) ≈ 3.302775638 que está fuera del intervalo [−1, 1] . El lector puede
verificar esto usando x0 = 0 y ε = 10−5 .
√
Observación. Note que g (x) también posee un punto fijo único q = 12 3 + 13 en el
intervalo [3, 4] . Sin embargo, g (q) > 1 , ası́ que g no satisface las hipótesis del Teorema en
[3, 4] . Esto demuestra que esas hipótesis son suficientes pero no necesarias.
Ejemplo 32 Sea g(x) = 3−x . Puesto que g (x) = −3−x ln 3 < 0 en [0, 1] , la función es
decreciente en ese intervalo. Por lo tanto g (1) = 13 g (x) 1 = g (0) para todo x ∈ [0, 1] ,
por lo cual g posee un punto fijo. No podemos garantizar la unicidad del punto fijo usando el
Teorema 2.1, sin embargo como g es estrictamente decreciente dicho punto fijo debe ser único.
Sergio Plaza 45
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
−x
gráfico de g(x) = 3
Ejemplo 33 La ecuación x3 + 4x2 − 10 = 0 posee una única raı́z en [1, 2] . Hay muchas
formas para convertir dicha ecuación en la forma x = g (x) mediante simple manejo algebraico.
Por ejemplo, para obtener la función que se describe en (c), podemos manipular ecuación
x3 + 4x2 − 10 = 0 , por ejemplo, podemos escribir 4x2 = 10 − x3 , por lo tanto x2 = 14 10 − x3
1/2
, luego x = g3 (x) = ± 21 10 − x3 .
Para obtener una solución positiva, elegimos g3 (x) con el signo positivo. Se deja al lector
deducir las funciones que se indica a continuación, pero debemos verificar que el punto fijo de
cada una sea realmente una solución de la ecuación original x3 + 4x2 − 10 = 0 .
x3 +4x2 −10
(e) x = g5 (x) = x − 3x2 +8x .
Con p0 = 1.5 la siguiente tabla proporciona los resultados del método de iteraciones de punto
fijo para las cinco opciones de g .
La raı́z exacta es r = 1.365230013 . . . , según se señalo anteriormente. Al comparar los
resultados del algoritmo de bisección aplicado para resolver la misma ecuación, observamos
que se obtuvieron excelentes resultados con las opciones (3), (4) y (5), ya que el método de
bisección requiere 27 iteraciones para garantizar la exactitud. Conviene señalar que la opción
(1) ocasiona divergencia y que la opción (2) se torna indefinida en R ya que contiene la raı́z
cuadrada de un número negativo.
Aún cuando las funciones de este ejemplo son problemas de punto fijo para el mismo pro-
blema de búsqueda de raı́z, difieren como métodos para aproximar la solución a este tipo de
problemas. Su propósito es ilustrar la pregunta que es preciso responder a la siguiente pregunta
Cómo podemos encontrar un problema de punto fijo capáz de producir una sucesión convergente
rápidamente a una solución de un problema de búsqueda de raı́z?
Los siguientes ejemplos nos dan algunas pistas sobre los procedimientos que deberı́amos seguir
y quizá lo más importante, algunos que debemos excluir.
Sergio Plaza 46
n g1 g2 g3 g4 g5
0 1.5 1.5 1.5 1.5 1.5
1 -0.875 0.8165 1.286953768 1.348399725 1.373333333
2 6.732 2.9969 1.402540804 1.367376372 1.365230015
3 -469.7 (−8.65)1/2 1.345458374 1.364957015 1.365230014
4 1.03 × 108 1.375170253 1.365264748 1.365230013
5 1.360094193 1.365225594
6 1.367846968 1.36523.576
7 1.363887004 1.365229942
8 1.365916734 1.365230022
9 1.364878217 1.365230012
10 1.365410062 1.365230014
15 1.365223680 1.365230013
20 1.365230236
25 1.365230006
30 1.365230013
10
5
x
–4 –3 –2 –1 1 2
–5
–10
1/2
Ejemplo 35 Con x = g2 (x) = 10 x − 4x , podemos ver que g2 no aplica [1, 2] en [1, 2] y
que la sucesión (xn )n∈N no está definida para x0 > 1.58113883 . . . . Además, tampoco existe
un intervalo que contenga a r para el cual |g2 (x)| < 1 , pues |g2 (r)| ≈ 3.4 .
Sergio Plaza 47
1.8
1.6
y
1.4
1.2
1/2 −1/2
Ejemplo 36 Para x = g3 (x) = 12 10 − x3 , tenemos que g3 (x) = − 34 x2 10 − x3 <0
en [1, 2] , ası́ que g3 es estrictamente decreciente en [1, 2] . Sin embargo |g3 (2)| ≈ 2.12 por
lo cual la condición |g3 (x)| λ < 1 falla en [1, 2] . Un análisis más minucioso de la sucesión
(xn )n∈N con p0 = 1.5 revela que basta considerar el intervalo [1, 1.5] en vez de [1, 2] . En este
intervalo la función sigue siendo estrictamente decreciente, pero además 1 < 1.28 ≈ g3 (1.5)
g3 (x) g3 (1) = 1.5 para todo x ∈ [1, 1.5] en vez de [1, 2] . Esto demuestra que g3 aplica
el intervalo [1, 1.5] en si mismo. Además |g3 (x)| 0.66 < 1 , por lo cual el Teorema 2.1 nos
garantiza la unicidad del punto fijo y la convergencia del método iterativo.
1.8
1.6
y
1.4
1.2
1/2
10
−5
√ 5
Ejemplo 37 Para x = g4 (x) = 4+x , tenemos |g4 (x)| =
√10(4+x) 3/2
10(5)3/2
< 0.15
para todo x ∈ [1, 2] . La cota en la magnitud de g4 es mucho menor que magnitud de g3 lo
1.8
1.6
y
1.4
1.2
xn+1 = F (xn ) , n 0.
F (xn ), n 0 , es una sucesión de Cauchy, y siendo A cerrado y acotado ella es una sucesión
convergente, cuyo lı́mite es un punto fijo de F . Tenemos
Definición 2.2 Supongamos que (pn )n∈N es una sucesión que converge a p , con pn = p para
todo n suficientemente grande. Si existen constantes positivas α y λ tales que
|pn+1 − p|
lim α =λ (2.22)
n→∞ |pn − p|
decimos que la convergencia a p de la sucesión (pn )n∈N es de orden α con constante de error
asintótica λ .
Definición 2.3 Decimos que un método iterativo de punto fijo xn+1 = g(xn ) es de orden α
con constante de error asintótica λ si, la sucesión (xn )n∈N , donde xn+1 = g(xn ) , con n 0 ,
es orden α con constante de error asintótica λ .
Observación. En general una sucesión con un orden de convergencia alto, converge más
rápidamente que una con un orden de convergencia más bajo. La constante asintótica influye
en la rapidez de la convergencia, pero no es tan importante como el orden de convergencia.
En el siguiente ejemplo se compara una sucesión linealmente convergente con una de orden
cuadrático.
Ejemplo 38 Supongamos que (pn )n∈N y (p̂n )n∈N convergen a cero, siendo la convergencia
de (pn )n∈N lineal con limn→∞ |p|pn+1
n|
|
= 0.5 y la convergencia de (p̂n )n∈N es cuadrática con
limn→∞ ||p̂p̂n+1 |
2 = 0.5 . Por razones de simplicidad supongamos que
|p̂n+1 |
≈ 0.5 y que |pn+1 |
|pn | ≈
n| |p̂n |2
0.5 . Ası́ en la convergencia lineal obtenemos que
2 3 n
|pn − 0| = |pn | ≈ 0.5 |pn−1 | ≈ (0.5) |pn−2 | ≈ (0.5) |pn−3 | ≈ · · · ≈ (0.5) |p0 | ,
n Lineal Cuadrática
1 5.0000 ×10−1 5.0000 ×10−1
2 2.5000 ×10−1 1.2500 ×10−1
3 1.2500 ×10−1 7.8125 ×10−3
4 6.2500 ×10−2 3.0518 ×10−5
5 3.1250 ×10−2 4.6566 ×10−10
6 1.5625 ×10−2 1.0842 ×10−19
7 7.8125 ×10−3 5.8775 ×10−39
Teorema 2.10 (orden de convergencia de punto fijo) Sea g : [a, b] −→ [a, b] continua.
Supongamos que g es continua en ]a, b[ y que existe una constante positiva 0 λ < 1 tal que
|g (x)| λ para todo x ∈ ]a, b[ . Si g (p) = 0 , entonces para cualquier punto p0 ∈ [a, b] la
sucesión
pn = g (pn−1 ) , n 1
converge linealmente al único punto fijo p ∈ [a, b] .
Observación. El teorema anterior establece que en el caso de los métodos de punto fijo, la
convergencia de orden superior sólo puede ocurrir si g (p) = 0 . El siguiente resultado describe
otras condiciones que garantizan la convergencia cuadrática que deseamos.
Teorema 2.11 Sea p un punto fijo de g (x) . Supongamos que g (p) = 0 y que g es
continua y acotada por M en un intervalo abierto que contiene a p . Entonces existe δ > 0 tal
que para p0 ∈ [p − δ, p + δ] la sucesión definida por pn = g (pn−1 ) , con n 1 , converge al
menos cuadráticamente a p . Además, para valores suficientemente grandes de n se tiene que
M 2
|pn+1 − p| < |pn − p| .
2
Los teoremas anteriores nos indican que nuestra investigación de los métodos de punto fijo
cuadráticamente convergentes deberı́an conducirnos a funciones cuyas derivadas son anulan en
el punto fijo.
La manera más fácil de plantear un problema de punto fijo relacionado con la búsqueda de
raı́ces de f (x) = 0 consiste en restar un múltiplo de f (x) (que desaparecerá en la raı́z). Por
lo tanto, a continuación consideraremos un método iterativo de punto fijo de la forma
pn = g (pn−1 ) , n 1,
con g es de la forma
donde φ (x) es una función derivable, y sobre la cual imponemos condiciones más adelante.
Para que el procedimiento iterativo dado por g sea cuadráticamente convergente, es necesario
tener que g (p) = 0 . Dado que
Teorema 2.12 Una función f : [a, b] −→ R , derivable m veces, tiene un cero de multiplici-
dad m en p si f (p) = f (p) = f (p) = · · · = f (m−1) (p) = 0 y f (m) (p) = 0 .
2 ex − x − 1
f (x) = (x − 0)
x2
empleando la regla de L’Hospital, obtenemos que
ex − x − 1 ex − 1 ex 1
lim = lim = lim =
x→0 x2 x→0 2x x→0 2 2
la siguiente tabla muestra los términos que se generaron con el método de Newton aplicado a
f con p0 = 1 .
Teorema 2.13 Supongamos que F define un método iterativo de punto fijo y que F (p) = p ,
F (p) = F (p) = · · · = F (m−1) (p) = 0 y F (m) (p) = 0 , entonces el método iterativo de punto
fijo definido por F tiene orden de convergencia m .
Demostración. Sea p0 un punto arbitrario y definamos la sucesión (pn )n∈N por pn+1 =
F (pn ), n 0 . Recordemos que el error es definido por
en = pn − p.
Sergio Plaza 53
n pn n pn
0 1.0 9 2.7750 ×10−3
1 0.58198 10 1.3881 ×10−3
2 0.31906 11 6.9411 ×10−4
3 0.16800 12 3.4703 ×10−4
4 0.08635 13 1.7416 ×10−4
5 0.04380 14 8.8041 ×10−5
6 0.02206 15 4.2610 ×10−5
7 0.01107 16 1.9142 ×10−6
8 0.005545
en+1 = pn+1 − p
= F (pn ) − F (p)
= F (p + en ) − F (p)
e2n em−1 em
F (p) + F (p)en + F (p) + · · · + F (m−1) (p) n + F (m) (&
p) n − F (p)
Taylor
=
2! (m − 1)! m!
em
con p& entre p y p + en . Usando la hipótesis nos queda en+1 = F (m) (& n
p) m! , de donde
f (x)
μ (x) = .
f (x)
m
Si p es un cero de multiplicidad m entonces podemos escribir f (x) = (x − p) q (x) , con
q(p) = 0 . Reemplazando, nos queda
1
μ (p) = = 0,
m
Sergio Plaza 54
por lo tanto p es un cero simple de μ (x) . Ası́ podemos aplicar el método de Newton a la
función μ (x) obteniendo
f (x)
μ (x) f (x)
g (x) = x − =x−
μ (x) (f (x))2 −f (x) f (x)
(f (x))2
n pn
1 −2.3421061 × 10−1
2 −8.4582788 × 10−3
3 −1.1889524 × 10−5
4 −6.8638230 × 10−3
5 −2.8085217 × 10−3
(i) (ii)
p1 1.37333333 1.35689898
p2 1.36526201 1.36519585
p3 1.36523001 1.36523001
Otra manera de acelerar la convergencia del método de Newton para raı́ces múltiples es el
siguiente. Sea p una raı́z múltiple de multiplicidad m de f (x) = 0 . Definamos el siguiente
método iterativo
f (x)
Nm (x) = x − m .
f (x)
este método tiene convergencia cuadrática en un intervalo abierto que contiene a p y tiene
convergencia lineal cerca de la raı́ces simples de f (x) = 0 .
Entonces
2
(pn+1 − p) ≈ (pn − p) (pn+2 − p) ,
por lo tanto
al despejar p obtenemos
2
pn+2 pn − (pn+1 )
p≈ .
pn+2 − 2pn+1 + pn
Si sumamos y restamos los términos p2n y 2pn pn+1 en el numerador podemos escribir esta
última expresión de la siguiente manera
2
(pn+1 − pn )
p ≈ pn − .
pn+2 − 2pn+1 + pn
Sergio Plaza 56
∞
El método Δ2 de Aitken se basa en la suposición de que la sucesión (p̂n )n=0 definida por
2
(pn+1 − pn )
p̂n = pn − ,
pn+2 − 2pn+1 + pn
conocido como método de acelaración de Aitken, converge más rápido a p que la sucesión
original (pn )n∈N .
Ejemplo 42 La sucesión (pn )n∈N definida por pn = cos n1 , converge linealmente a p = 1 .
En la siguiente tabla se incluyen los primeros términos de las sucesiones (pn )n∈N y (p̂n )n∈N .
Observe que (p̂n )n∈N converge mas rápidamente a p = 1 que (pn )n∈N . Esto queda claro en la
tabla siguiente
n pn pn
1 0.54030 0.96178
2 0.87758 0.98213
3 0.94496 0.98979
4 0.96891 0.99342
5 0.98007 0.99541
6 0.98614
7 0.98981
Definición 2.5 Dada la sucesión (pn )n∈N la diferencia Δpn es definida por
Δpn = pn+1 − pn .
Δk pn = Δ Δk−1 pn , k 2.
2
(Δpn )
p n = pn − . (2.24)
Δ2 pn
Teorema 2.14 Supongamos que la sucesión (pn )n∈N converge linealmente a p y que para
todos los valores de n suficientemente grandes se tiene que (pn − p) (pn+1 − p) > 0 . Entonces
la sucesión (p̂n )n∈N construida por el método de aceleración de convergencia de Aitken converge
con mayor rapidez a p que la sucesión (pn )n∈N en el sentido que
p̂n − p
lim = 0.
n→∞ pn − p
Sergio Plaza 57
' ( ' (
p0 , p1 = g (p1 ) , p2 = g (p1 ) , p̂0 = Δ2 p0 , p3 = g (p2 ) , p̂1 = Δ2 p1
' 2(
donde Δ indica que se usa le método Δ2 de Aitken.
El método de Steffensen construye los mismos primeros cuatro términos p0 , p1 , p2 y p̂0 .
No obstante, en este paso supone que p̂0 es una mejor aproximación de p que p2 y aplica la
iteración de punto fijo a p̂0 en vez de a p2 . Al aplicar esta notación, la secuencia generada será
(0) (0) (0) (0) (0)
p0 , p1 = g p0 , p2 = g p1 ,
' ( (0)
(1) (1) (1) (1) (1)
p0 = Δ2 p0 , p1 = g p0 , p2 = g p1 ,
' ( (1)
(2) (2) (2)
p0 = Δ2 p0 , p1 = g p0 , . . .
1/2
10
g (x) = ,
x+4
Teorema 2.15 Supongamos p que es un punto fijo de g (x) , con g (p) = 1 . Si existe δ > 0
tal que g es 3 veces derivable y que g es continua en [a − δ, p + δ] , entonces con el método
de Steffensen obtendremos convergencia cuadrática para cualquier x ∈ [a − δ, p + δ] .
Sergio Plaza 58
(a) Pruebe que g(x) define un método iterativo convergente, encontrando explı́citamente un
intervalo cerrado y acotado I = [a, b] tal que g(I) ⊂ I y una constante 0 λ < 1 tal
que |g (x)| λ para todo x ∈ I .
(b) Estime el número de iteraciones que debe hacerse con este método de modo que se tengan
4 decimales de precisión para el punto fijo de g en I si tomamos como condición inicial
el punto x0 = 0.4 .
(c) Use el método de Newton para encontrar una aproximación al punto fijo de g(x) en I .
Use como condición inicial x0 = 0.4 y como criterio de parada |xn − g(xn )| 10−5 .
(d) Considere una pequeña variación g̃(x) de g(x) , donde g̃(x) = 0.2 + 0.6 cos(2x) . Denote
por α y α̃ los puntos fijos de g y g̃ respectivamente. Demuestre que
0.1
|α − α̃|
1−L
donde L es la constante de Lipschitz de la función g Qué ocurre con las iteraciones
xn+1 = g̃(xn ) , donde x0 = 0.45 ? Explique
Solución
(a) Tenemos que g(x) = 0.1 + 0.6 cos(2x) . Para probar que esta función define un método
iterativo convergente, debemos mostrar que
Es fácil ver que podemos satisfacer ambas condiciones por separado. Por ejemplo, como
−1 cos(2x) 1
0.7
0.6
0.5
0.4
0.3
0.2
0.2 0.3 0.4 0.5 0.6 0.7
x
Sin embargo ninguno de esos intervalos mencionados satisface ambas condiciones. Debe-
mos encontrar un intervalo adecuado donde se satisfacen ambas condiciones.
No se gana mucho considerando un intervalo que no esté contenido en [0.2, 0.7] , pues
todo los valores de g(g(x)) están en este intervalo. Notemos que g(x) es decreciente
sobre este intervalo (considere la derivada) y como g(0.2) = 0.6526365964... y g(0.7) =
0.2019802857... se tiene que g([0.2, 0.7]) = [0.2019802857..., 0.6526365964...] ⊂ [0.2, 0.7] =
I . Luego, como puntos extremos de I son llevados en I por g , (a) se satisfecha, pero (b)
requiere que el extremo derecho no sea mayor que 0.5 arcsen(1/1.2) ≈ 0.49255539 , luego
el punto extremo izquierdo no puede ser menor que la preimágen de este valor bajo g , la
cual es aproximadamente 0.4288 . Ahora, tomando x0 = 0.45 se tiene que x1 = g(x0 ) ≈
0.4729659810 < 0.473 = x̃1 , y podemos tomar el intervalo J = [0.45, 0.473] ⊂ I , y se tiene
que g(0.45) ≈ 0.4729659810 y g(0.473) ≈ 0.4509592536 , y siendo g decreciente en ese
intervalo, se tiene que g(J) = [0.4509592536..., 0.4729659810...] ⊂ [0.45, 0.473] , es decir,
g(J) ⊂ J . En este intervalo J se tiene que max{|g (x)| : x ∈ J} = 0.9732987256... =
λ < 1 . Luego, el método propuesto converge para cada x0 ∈ J .
0.8
0.6
y
0.4
0.2
gráfico de |g (x)| en J
n
(b) Usaremos la fórmula |xn − xg | 1−λ
λ
|x0 − x1 | , donde λ = max{|g (x)| : x ∈ J} =
0.9732987256... y xg es el punto fijo de g que andamos buscando. Para simplificar,
tomamos un λ̃ = 0.98 > λ en el numerador, pues tenemos que 1/(1 − λ) ≈ 37.45139595
y 1/(1 − 0.98) ≈ 50.00 . Luego
λn 1
|xn − xg | |x0 − x1 | λ̃n |x0 − x1 | = 50 λ̃n |x0 − x1 |
1−λ 1 − λ̃
tomando un valor x̄1 < x1 | , agrandamos la diferencia |x0 − x1 , por ejemplo, tomamos
x̃1 = 0.473 , y tememos 0.72965981 × 10−1 ≈ |x0 − x1 | |x0 − x̃1 | = |0.4 − 0.473| = 0.073 .
Reemplazando esos valores en la última parte de la desigualdad anteior, obtenemos
Sergio Plaza 60
(c) Para encontrar el punto fijo de g debemos resolver la ecuación g(x) = x , es decir,
0.1 + 0.6 cos(2x) = x , de donde debemos encontrar una raı́z de la ecuación f (x) =
0.1 + 0.6 cos(2x) − x = 0 . Usando el método de Newton, tenemos
f (x)
Nf (x) = x−
f (x)
0.1 + 0.6 cos(2 x) − x
= x−
−1.2 sin(2 x) − 1
0.5 (12 x sin(2 x) + 1 + 6 cos(2 x))
=
6 sin(2 x) + 5
Comenzando con las iteraciones, y usando que xn+1 = g(xn ) , y trabajando con 12 dı́gitos
se tiene que
x1 = Nf (0.4) = 0.463425566162 , e1 = |x1 − x0 | = 0.13425566162 × 10−1
x2 = Nf (x1 ) = 0.461786298387 , e2 = |x2 − x1 | = 0.1639267775 × 10−2
x3 = Nf (x2 ) = 0.461785307874 , e3 = |x3 − x2 | = 0.990513 × 10−6
x4 = Nf (x3 ) = 0.461785307873 , e4 = |x4 − x3 | = 0.1 × 10−11 .
Además, g(x4 ) = 0.461785307873 = x4 , por lo tanto, salvo errores de orden mayor que
10−11 se tiene que el punto fijo es xg = 0.461785307873
0.8
0.6
0.4
0.2
gráfico de g̃ en [0, 1]
Sergio Plaza 61
Es decir, hemos probado que |α̃ − α| 0.1 + L|α̃ − α| , de donde, |α̃ − α|(1 − L) 0.1 ,
1
y de aquı́, |α̃ − α| 1−L como se pedı́a.
(a) Determine la fórmula de Newton xn+1 = g(xn ) . Tomando como valor inicial x0 = e ,
calcule las primeras dos iteraciones x1 y x2 del método.
(b) Demuestre que el método de Newton usado en la parte (a) tiene un orden de convergencia
p = 1.
Solución.
(a) La frmula del método de Newton para encontrar la raı́z de f (x) = (x − 1) ln x = 0 es:
(xn − 1) ln xn xn (xn ln xn + (xn − 1) − (xn − 1) ln xn )
xn+1 = g(xn ) = xn − xn −1 =
ln xn + xn xn ln xn + (xn − 1)
xn − 1 + ln xn
= xn .
xn − 1 + xn ln xn
cos(x) = tan(x),
de la cual se sabe que tiene una solución x̄ = 0.6662394321 , con un error de 0.9 × 10−9 .
(a) Defina un método de punto fijo (diferente a Newton) y demuestre su convergencia (sin
hacer iteraciones) en el intervalo que usted defina.
(b) Cuántas iteraciones necesitarı́a para obtener el error de 0.9 × 10−9 comenzando con
x0 = 0.6 ?
(c) Use el método de Newton con el punto inicial x0 = 0.6 y obtenga x1 y x2 Cuál es la
velocidad de convergencia del método de punto fijo propuesto por usted en la parte (a)?
Solución.
(a) Propuesta del método.
Despejando de la ecuación tenemos
x = arctan(cos(x)) = g(x) ,
es decir,
Elegimos el intervalo [0, 1] , tenemos que g(x) = arctan(cos(x)) es decreciente en ese inter-
d sen(x) π
valo, pues g (x) = arctan(cos(x)) = − y como g(0) = arctan(cos(0)) = y
dx 1 + cos2 (x) 4
g(1) = arctan(cos(1)) ≈ 0.4953672892 , vemos que g([0, 1]) ⊂ [0, 1] . Por lo tanto, g tiene un
único punto fijo xg en [0, 1] .
0.75
0.7
0.65
0.6
0.55
0.5
0 0.2 0.4 0.6 0.8 1
x
d sen(x)
Ahora, g (x) = arctan(cos(x)) = − . Luego,
dx 1 + cos2 (x)
(b) Para estimar el número de iteraciones podemos usar la fórmula para cotas del error
λn
|xn − x̄| |x0 − x1 | ,
1−λ
donde 0 λ < 1 es tal que |g (x)| λ para todo x ∈ ] a, b [ . Ahora como |g (x)| =
|sen(x)| sen(x)
= 1+cos
1+cos2 (x) 2 (x) , para x ∈ [0, 1] , es una función creciente, se sigue que
sen(1)
|g (x)| ≈ 0.5463024898 0.55
1 + cos2 (1)
0.55n
× 0.0899997083 0.9 × 10−9
1 − 0.55
0.55n 4.50001458 × 10−9
n ln(0.55) ln(4.50001458 × 10−9 )
n(−0.5978370008) −19.2191852
de donde n 32.14786836 , por lo tanto basta tomar n = 33 iteraciones para tener lo pedido.
(c) Tenemos que Nf (x) = x − ff(x)(x) , donde en este caso, f (x) = tan(x) − cos(x) . Como
2
f (x) = 1 + tan (x) + sen(x) , se tiene que
tan(x) − cos(x)
Nf (x) = x −
1 + tan2 (x) + sen(x)
1. Compruebe que esta ecuación tiene exactamente una solución en el intervalo [1, 2] .
Solución.
Sergio Plaza 65
1. Tenemos la ecuación
x3 − ln(1 + 2x) = 0
tenemos
3
x= ln(1 + 2x) .
3
xn+1 = g(xn ) = ln(1 + 2xn ) .
Tenemos
2 1 1
g (x) = · >0
3 (ln(1 + 2x))2/3 2x + 1
1 < 1.03184584
. .. 1.171902307
. .. 2
g(1) g(2)
de donde g([1, 2]) ⊆ [1, 2] y como g es estrictamente creciente, en ese intervalo, g tiene
un único punto fijo xg ∈ g([1, 2]) ⊂ [1, 2] .
Para ver la convergencia del método propuesto, debemos probar que |g (x)| λ < 1 para
todo x ∈ [1, 2] .
Ahora, g (x) es decreciente en [1, 2] y g (1) = 0.208717132 > g (x) > g (2) = 0.0970858457 .
Por lo tanto λ = max{|g (x)| : x ∈ [1, 2]} = 0.2087170132 y es claro que λ < 1 .
Por lo tanto el método propuesto es convergente al único punto fijo de g en [1, 2] .
Sergio Plaza 66
3
3. Tomando x0 = 1 , tenemos que x1 = g(1) = ln(3) = 1.03184584 . . .U̇sando la fórmula
λn
|xg − xn | |x1 − x0 |,
1−λ
si queremos precisión de 10−4 , imponemos entonces que
λn
|x1 − x0 | 10−4 .
1−λ
Como |x1 − x0 | = |0.0318458398 . . .| < 0.032 (para evitar el cálculo con tantos decimales)
y λ = 0.2087170132 , se tiene 1 − λ = 0.7912829868 . . . > 0.79 (misma razón anterior)
1 1
Ası́ < , y como λ < 0.21 nos queda
1−λ 0.79
λn (0.21)n
.
1−λ 0.79
Luego
λn (0.21)n
|x1 − x0 | × 0.032 = (0.21)n × 0.0405063 . . . (0.21)n × 0.041
1−λ 0.79
10−4
y hacemos 0.041 × (0.21)n < 10−4 , de donde (0.21)n < , y entonces
−4 0.041
10
n ln(0.21) ln y como ln(0.21) < 0 , se sigue que
0.041
10−4
ln
0.041
n ≈ 3.8549104 . . .
ln(0.21)
⎧
⎨ x21 + x2 − 37 = 0
x1 − x22 − 5 = 0
⎩
x1 + x2 + x3 − 3 = 0
(a) Utilizando el método de Newton para sistemas no lineales y tomando como punto inicial
x0 = (0, 0, 0)T , obtenga el punto x1 .
(b) Cuando se utiliza el método de Newton para sistemas no lineales, una alternativa para
no calcular la inversa de una matriz en cada iteración es resolver un sistema auxiliar de
ecuaciones linwales en cada iteración, lo cual es desde el punto de vista numérico siempre
resulta más conveniente.
Describa el sistema de ecuaciones lineales que deberı́a resolver para obtener el punto x1
de la parte (a) y calcule el número de condicionamiento de la matriz del sistema con
respecto al redio espectral puede inferir algo sobre la estabilidad de las soluciones del
sistema?
Sergio Plaza 67
⎧
⎨ x21 + x2 − 37 = 0
x1 − x22 − 5 = 0
⎩
x1 + x2 + x3 − 3 = 0
f1 (x1 , x2 , x3 ) = x21 + x2 − 37
f2 (x1 , x2 , x3 ) = x1 − x22 − 5
f3 (x1 , x2 , x3 ) = x1 + x2 − x3 − 3
Ahora,
⎛ ∂f1 ∂f1 ∂f1 ⎞
∂x1 ∂x2 ∂x3
⎜ ⎟
⎜ ⎟
⎜ ∂f2 ∂f2 ∂f2 ⎟
JF = ⎜ ⎟.
⎜ ∂x1 ∂x2 ∂x3 ⎟
⎝ ⎠
∂f3 ∂f3 ∂f3
∂x1 ∂x2 ∂x3
Derivando, tenemos
∂F ∂f1 ∂f2 ∂f3
= , , = (2x1 , 1, 1)
∂x1 ∂x1 ∂x1 ∂x1
∂F ∂f1 ∂f2 ∂f3
= , , = (1, −2x1 , 1)
∂x2 ∂x2 ∂x2 ∂x2
∂F ∂f1 ∂f2 ∂f3
= , , = (0, 0, 1)
∂x3 ∂x3 ∂x3 ∂x3
Luego,
⎛ ⎞
2x1 1 0
JF (x1 , x2 , x3 ) = ⎝ 1 −2x2 0 ⎠.
1 1 1
⎛ ⎞
0 1 0
JF (0, 0, 0) = ⎝ 1 0 0 ⎠.
1 1 1
Para calcular (JF (0, 0, 0))−1 , lo podemos hacer en forma simple, escribiendo
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 0 a11 a12 a13 1 0 0
⎝ 1 0 0 ⎠ · ⎝ a21 a22 a23 ⎠ = ⎝ 0 1 0 ⎠
1 1 1 a31 a32 a33 0 0 1
de donde a21 = 1 , a22 = 0 , a23 = 0 , a11 = 0 , a13 = 0 , a11 + a21 + a31 = 0 , de donde,
a31 = −1 ; a12 + a22 + a32 = 0 , de donde, a32 = −1 ; a13 + a23 + a33 = 1 , de donde, a33 = 1 .
Por lo tanto,
⎛ ⎞−1 ⎛ ⎞
0 1 0 0 1 0
⎝ 1 0 0 ⎠ =⎝ 1 0 0 ⎠
1 1 1 −1 −1 1
b) Para obtener la fórmula pedida, recordemos lo hecho en clases para sistemas de ecuaciones
no lineales, en este caso de 3 × 3 . Sean (x1 , x2 , x3 ) una solución aproximada del sistema de
ecuaciones no lineales, y sea (x1 + h1 , x2 + h2 , x3 + h3 ) la solución exacta. Aplicando Taylor,
obtenemos
⎛ ⎞
h1
JF (x1 , x2 , x3 ) ⎝ h2 ⎠ = −F (x1 , x2 , x3 ) .
h3
Ahora, usando los datos, tenemos
⎛ ⎞
−37
(0) (0) (0)
F (x1 , x2 , x3 ) = ⎝ −5 ⎠ ,
−3
Sergio Plaza 69
⎛ ⎞
0 1 0
(0) (0) (0)
JF (x1 , x2 , x3 ) = JF (0, 0, 0) = ⎝ 1 0 0 ⎠.
1 1 1
⎛ ⎞⎛ ⎞ ⎛ ⎞
0 1 0 h1 −37
⎝ 1 0 0 ⎠ ⎝ h2 ⎠ = − ⎝ −5 ⎠
1 1 1 h3 −3
⎛ (1)
⎞ ⎛ (0) ⎞ ⎛ ⎞
x1 x1 h1
⎜ (1) ⎟ ⎜ (0) ⎟ ⎝
⎝ x2 ⎠ = ⎝ x2 ⎠ + h2 ⎠ ,
(1) (0) h3
x3 x3
se tiene que
⎛ (1)
⎞ ⎛ ⎞
x1 5
⎜ (1) ⎟ ⎝
⎝ x2 ⎠ = 37 ⎠
(1) −39
x3
)
max{|λ| : λ valor propio de AAT }
k(A) = .
min{|λ| : λ valor propio de AAT }
LLamando
⎛ ⎞
0 1 0
A=⎝ 1 0 0 ⎠,
1 1 1
Se tiene que
⎛ ⎞
0 1 1
AT = ⎝ 1 0 1 ⎠.
0 0 1
Luego
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 0 0 1 1 1 0 1
AAT = ⎝ 1 0 0 ⎠·⎝ 1 0 1 ⎠=⎝ 0 1 1 ⎠
1 1 1 0 0 1 1 1 3
Sergio Plaza 70
⎛ ⎞
1−λ 0 1
AA − λI = ⎝ 0
T
1−λ 1 ⎠
1 1 3−λ
y
Problema 2.6 Resuelva usando el método de Newton para varias variables, el siguiente sistema
no lineal:
3x21 − x22 = 0
3x1 x22 − x31 = 1
Para esto, tome como punto inicial x(0) = (1, 1)T y realice dos iteraciones, es decir, calcule x(1)
y x(2) .
f (x, y) = 3x2 − y 2 = 0
g(x, y) = 3xy 2 − x3 − 1 = 0 .
Sea F (x, y) = (f (x, y), g(x, y)) . El método de Newton aplicado a F es dado por
Ahora,
⎛ ∂f ∂f ⎞
(x, y) (x, y)
⎜ ∂x ∂y ⎟
⎜ ⎟ 6x −2y
JF (x, y) = ⎜ ⎟= .
⎝ ∂g ∂g ⎠ 3y − 3x2
2
6xy
(x, y) (x, y)
∂x ∂y
x1 x0
= − (JF (x0 , y0 ))−1 F (x0 , y0 )
y1 y0
y
6 −2
JF (x0 , y0 ) = JF (1, 1) =
0 6
Sergio Plaza 71
⎛ ⎞ ⎛ 1 1 ⎞⎛ ⎞
6 2 6 18 2
1 ⎝ ⎠=⎝ ⎠⎝ ⎠
(JF (1, 1))−1 =
36 1
0 6 0 6 1
2 1 1
= + ,
6 18 6
7 1
= ,
18 6
(1) 7 1 11 5
x = (x1 , y1 ) = (1, 1) − , = ,
18 6 18 6
⎛ ⎞
11 5
⎜ −
11 5 ⎜ 3 3 ⎟
⎟
JF (x1 , y1 ) = JF , =⎜ ⎟
18 6 ⎝ 26 55 ⎠
27 18
2075
luego det JF (x1 , y1 ) = .
162
Ahora,
⎛ ⎞ ⎛ ⎞
55 5 99 54
⎜ 18 ⎟ ⎜
3 ⎟ ⎜ 415 415 ⎟
162 ⎜ ⎟
(JF (x1 , y1 ))−1 = ⎜ ⎟=⎜ ⎟
2075 ⎝ 26 11 ⎠ ⎝ 156 594 ⎠
− −
27 3 2075 2075
Ası́
⎛ ⎞⎛ ⎞
99 54 23
⎜ 415 ⎟ ⎜
415 ⎟ ⎜ 54 ⎟
⎜ ⎟
(JF (x1 , y1 ))−1 F (x1 , y1 ) = ⎜ ⎟⎜ ⎟
⎝ 156 594 ⎠ ⎝ 131 ⎠
−
2075 2075 2916
1204 2147
= ,−
11205 112050
= (0.1074520303 , −0.01916108880) .
Luego,
Sergio Plaza 72
11 5
1204 2147
x(2) = (x2 , y2 ) = , ,− −
18 5
11205 112050
11287 47761
= ,
22410 56025
= (0.5036590808 , 0.8524944221)
Una forma alternativa y más simple es resolver en cada paso un sistema de ecuaciones lineales,
para ello recordemos que el método de Newton es dado
xn+1 xn hn
= + ,
yn+1 yn kn
hn
donde es la solución del sistema de ecuaciones lineales
kn
hn
JF (xn , yn ) = −F (xn , yn )
kn
6x −2y
JF (x, y) =
3y 2 − 3x2 6xy
6 −2
Como (x0 , y0 ) = (1, 1) nos queda JF (x0 , y0 ) = y F (x0 , y0 ) = (2, 1) , obtenemos
0 6
ası́ el sistema de ecuaciones lineales
6 −2 h0 2
=−
0 6 k0 1
1
de donde 6k0 = −1 , es decir, k0 = − ; la otra ecuación es 6h0 − 2k0 = −2 , y de aquı́
6
7
h0 = − . Luego
18
⎛ ⎞ ⎛ ⎞
⎛ ⎞ ⎛ ⎞ −7 11
x1 1 ⎜ 18 ⎟ ⎜ 18 ⎟
⎝ ⎠=⎝ ⎠+⎜
⎜
⎟ ⎜
⎟=⎜
⎟
⎟
⎝ −1 ⎠ ⎝ 5 ⎠
y1 1
6 6
x2
Para debemos resolver el sistema
y2
h1
JF (x1 , y1 ) = −F (x1 , y1 )
k1
Este sistema es
Sergio Plaza 73
⎛ ⎞ ⎛ ⎞
11 5 23
⎜ 3 −
⎜ 3 ⎟
⎟ h1
⎜
⎜ 54 ⎟
⎟
⎜ ⎟ =− ⎜ ⎟
⎝ 26 55 ⎠ k1 ⎝ 131 ⎠
27 18 2916
cuya solución es
1024 2147
(h1 , k1 ) = − , = (−0.10745203030 , 0.01916108880) .
11205 112050
Luego,
11 1024 5 2147
(x2 , y2 ) = (x1 , y1 ) + (h1 , k1 ) = − , + = (0.5036590808 , 0.8524944221)
18 11205 6 112050
2.11 Ejercicios
Problema 2.1 Use el manejo algebraico para demostrar que las siguientes funciones tienen un
punto fijo en p exactamente cuando f (p) = 0 , donde f (x) = x4 + 2x2 − x − 3 .
1/4
1. g1 (x) = 3 + x − 2x2
1/2
x+3−x4
2. g2 (x) = 2
1/2
x+3
3. g3 (x) = x2 +2
3x4 +2x2 +3
4. g4 (x) = 4x3 +x−1
Problema 2.2 1. Efectúe cuatro iteraciones, si es posible hacerlo, en las funciones definidas
en el problema anterior, considerando p0 = 1 y pn+1 = g (pn ) , n = 0, 1, 2, 3 .
Problema 2.3 Se proponen los siguientes métodos para calcular 211/3 . Clasifique por orden,
basándose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.
20pn−1 + 21
p2
n−1
1. pn = 21
p3n−1 −21
2. pn = pn−1 − 3p2n−1
p4n−1 −21pn−1
3. pn = pn−1 − p2n−1 −21
1/2
21
4. pn = pn−1
√
Problema 2.4 Aplique el método de bisección para determinar c3 , para f (x) = x − cos(x)
en [0, 1] .
Sergio Plaza 74
Problema 2.5 Sea f (x) = 3 (x + 1) x − 12 (x − 1) . Aplique el método de bisección para
determinar c3 en los siguientes intervalos
1. −2, 32
2. 54 , 52
Problema 2.6 Aplique en los siguientes intervalos el método de bisección para determinar las
aproxiamciones a las soluciones de x3 − 7x2 + 14x − 6 = 0 con una exactitud de 10−2 .
1. [0, 1]
2. 1, 165
3. 165 ,4
Problema 2.7 Aplique en los siguientes intervalos el método de bisección para determinar las
aproximaciones a las soluciones de x4 − 2x3 − 4x2 + 4x + 4 = 0 con una exactitud de 10−2 .
1. [−2, −1]
2. [0, 2]
3. [2, 3]
4. [−1, 0]
Problema 2.8 Aplique el método de bisección para determinar una aproximación a la solución
de tan(x) = x con una exactitud de 10−3 en el intervalo 4, 92 .
Problema 2.9 Aplique el método de bisección para determinar una aproximación a la solución
de 2 + cos (ex − 2) − ex = 0 con una exactitud de 10−3 en el intervalo 12 , 32
Problema 2.10 En cada caso aplique el método de bisección para determinar una aproxi-
mación a la solución con una exactitud de 10−5 .
√
Problema 2.11 Determine una aproximación de 3 con una exactitud de 10−4 usando el
método de bisección.
Problema 2.12 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximación con una exactitud de 10−3 de la solución de x3 + x − 4 = 0 en el intervalo
[1, 4] .
Sergio Plaza 75
Problema 2.13 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximación con una exactitud de 10−3 de la solución de x3 − x − 1 = 0 en el intervalo
[1, 2] .
10
Problema 2.14 Sea f (x) = (x − 1) , p = 1 y pn = 1 + n1 . Demuestre que |f (pn )| < 10−3
para todo n > 1 , mientras que |p − pn | < 10−3 sólo si n > 1000 .
n 1
Problema 2.15 Sea (pn )n∈N la sucesión dada por pn = k=1 k . Demuestre que (pn )n∈N
diverge aún cuando limn→∞ (pn − pn−1 ) = 0 .
Problema 2.16 Los cuatro siguientes métodos tienen por objeto calcular 71/5 . Clasifique por
orden, basándose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.
1/2
7−p3n−1
1. pn = 1 + p2n−1
p5n−1 −7
2. pn = pn−1 − p2n−1
p5n−1 −7
3. pn = pn−1 − 5p4n−1
p5n−1 −7
4. pn = pn−1 − 12
5. Aplique el método de iteración de punto fijo para determinar una solución con una exac-
titud de 10−2 para x4 − 3x2 − 3 = 0 en [1, 2] . Utilice p0 = 1 .
2. Suponga que realizamos iteraciones con el método propuesto en el item anterior hasta
obtener un error absoluto no mayor que 10−5 respecto de la raı́z exacta. Sin utilizar
calculadora, encuentre este número de iteraciones, para ellos use el intervalo [a, b] explic-
itado.
Problema 2.20 Sean f (x) = −x3 − cos(x) y x0 = −1 . Aplique el método de Newton para
determinar x4 ¿Podrı́amos utilizar x0 = 0 ?
se sabe que esta ecuación tiene una única raı́z en el intervalos [0, 1] . Use los métodos de Newton
y secante para aproximar la raı́z. Para Newton use x0 = 0 y para secante use x0 = 0 y x1 = 1 .
Problema 2.23 Aplique el método de Newton para obtener soluciones con una exactitud de
10−5 para los siguiente problemas.
1. x3 − 2x2 − 5 = 0 , x ∈ [1, 4] .
2. x − cos x = 0 , x ∈ 0, π2 .
6. ln (x − 1) + cos (x − 1) = 0 , x ∈ [1.3, 2] .
2
7. 2x cos(x) − (x − 2) = 0 , x ∈ [2, 3] .
Problema 2.24 Utilice el método de Newton para aproximar con exactitud de 10−5 el valor
de x en la gráfica de y = x2 más cercano del punto (1, 0) .
Problema 2.25 Utilice el método de Newton para aproximar con exactitud de 10−5 el valor
de x en la gráfica de y = x1 más cercano del punto (2, 1) .
Problema 2.26 Con una exactitud de 10−5 y utilizando el método de Newton resuelva la
ecuación 12 + 14 x2 − xsen(x) − 12 cos (2x) = 0 , con condición inicial x0 = π2 . Explique por que
el resultado parece poco usual para el método de Newton. También resuelva la ecuación con
x0 = 5π y x0 = 10π .
Problema 2.27 Considere la función f : R −→ R definida por f (x) = 3x5 − 10x3 + 23x
c) Usando el método de Newton con la condición inicial x0 = 1.06 realice iteraciones Qué
ocurre en este caso? Explique.
d) Demuestre la convergencia de los iterados del método de Newton cerca de la raı́z que
encontró b).
f (x)f (x)
Sf (x) = x − .
(f (x))2 − f (x)f (x))
Considere las dos condiciones iniciales x0 = 1.07 y x0 = 1.06 y realice las iteraciones en
ambos caso Qué ocurre?
Problema 2.28 Se sabe que la ecuación 2x4 + 24x3 + 61x2 − 16x + 1 = 0 tiene dos raices
cerca de 0.
1. Usando el método de Newton encuentre estas dos raices, con un error absoluto de 10−6 .
2f (xn )f (xn )
xn+1 = xn −
2(f (xn ))2 − f (xn )f (xn )
4. Pruebe que este nuevo método iterativo tiene orden de convergencia 3 alrededor de cada
raı́z simple de una ecuación f (x) = 0 , donde f (x) es al menos 3 veces derivable, con
f (x) continua.
(a) Usando el método de regula falsi encuentre una raı́z positiva de la ecuación.
(b) Proponga un método de punto fijo, no Newton, y demuestre, sin iterar, que converge a
la raı́z encontrada en (a) de la ecuación.
(c) Usando el método de punto fijo propuesto en (b), encuentre la solución buscada con una
precisión de ε = 10−3 , considerando como criterio de parada |f (xn )| ε .
Problema 2.30 Considere la ecuación x3 −x2 −x−1 = 0 , la cual posee una solución α ∈ [1, 2] .
1 1
Se propone el método iterativo xn+1 = g(xn ) , donde g(x) = 1 + + 2 , para resolver la
x x
ecuación.
1. Verifique las condiciones para que el método iterativo propuesto sea convergente.
Sergio Plaza 78
2. Si elige x0 ∈ [a, b] ⊂ [1, 2] arbitrario para comenzar las iteraciones, estime el número de
iteraciones que debe realizar para obtener xk que satisface la condición |xk+1 − xk |
5 · 10−5 .
(b) Usando el método que propuso en a), encuentre una solución aproximada a α con un
error de no más de 10−2
Problema 2.32 Considere la ecuación x3 −x2 −x−1 = 0 , la cual posee una solución α ∈ [1, 2] .
1 1
Se propone el método iterativo xn+1 = g(xn ) , donde g(x) = 1 + + 2 , para resolver la
x x
ecuación.
1. Verifique las condiciones para que el método iterativo propuesto sea convergente.
2. Si elige x0 ∈ [a, b] ⊂ [1, 2] arbitrario para comenzar las iteraciones, estime el número de
iteraciones que debe realizar para obtener xk que satisface la condición |xk+1 − xk |
5 · 10−5 .
Problema 2.33 Utilice el método de Newton para encontrar las soluciones de los siguientes
problemas con una exactitud de 10−5 , usando uno de los criterios de paradas especificados
arriba.
Problema 2.34 Repita el ejercicio anterior, aplicando el método de Newton modificado ¿Mejora
la rapidez o la exactitud en comparación con el ejercicio 1.?
Problema 2.35 Demuestre que las siguientes sucesiones convergen linealmente a p = 0 ¿Qué
tan grande debe ser n para que |pn − p| 5 × 10−2 ?
1 1
a.) pn = n, n 1, b. ) pn = n2 , n1
n
Problema 2.36 Demuestre que la sucesión pn = 10−2 converge cuadráticamente a cero.
c
Problema 2.37 Demuestre que la sucesión pn = 10−n no converge cuadráticamente a cero,
sin importar el tamaño del exponente c > 1 .
Problema 2.38 Demuestre que el algoritmo de bisección determina una sucesión con una cota
de error que converge linealmente a cero.
Sergio Plaza 79
Problema 2.39 El método iterativo para resolver f (x) = 0 , dado por el método de punto
fijo g (x) = x , donde
2
f (pn ) f (pn ) f (pn )
pn+1 = g (pn ) = pn − − ,
f (pn ) 2f (pn ) f (pn )
x2 + y 2 − 9 = 0
2 2
x + y − 8x + 12 = 0
2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.
3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.6, 0.7) y
estime √ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
( 21
8 , 135
8 ).
2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.
3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.2, 3.4) y
estime
√ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
(3, 12 ) .
1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.
3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton en este caso particular?
4. Realice 2 iteraciones con el método propuesto, comenzando con (0, 0) (especifique cual
de los métodos está usando)
2. Usando el método que propuso en 1), encuentre una solución aproximada a α con un
error de no más de 10−2
2. Demuestre que al menos uno de los métodos iterativos propuestos abajo para encontrar la
solución de f (x) = 0 es convergente (ambos podrı́an ser convergentes). La demostración
de la convergencia debe hacerse en forma teórica.
xn − e1/xn
xn+1 = g1 (xn ) = xn − x2n
x2n + e1/xn
1 − xn ln(xn )
xn+1 = g2 (xn ) = xn + .
1 + ln(xn )
Use el métodos que demostró ser convergente para encontrar una solución de f (x) = 0 ,
con una precisión ε = 10−3 , con el criterio de parada |xn+1 − xn | ε , y comenzando
con x0 = 1.76 .
3. Use el método de la secante para encontrar una solución de f (x) = 0 , con una precisión
ε = 10−3 , con el criterio de parada |xn+1 − xn | ε , comenzando con x0 = 1.76 y
x1 = 1.763 .
1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.
3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton en este caso particular?
4. Realice 2 iteraciones con el método propuesto, comenzando con (0, 0) (especifique cual
de los métodos está usando)
1. Proponga un método iterativo de punto fijo convergente, no Newton, para encontrar una
solución al sistema, comenzando con (x0 , y0 ) = (1.5, 3.5)
2. Aplique el método de Newton con las mismas condiciones iniciales. Obtenga dos itera-
ciones hay convergencia en este caso?
3. Si ambos métodos (1) y (2) son convergentes Cuál de ellos converge más rápido a la
solución buscada del sistema?
1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.
2. Proponga un método de punto fijo (no Newton) para encontrar la solución (α, β) del
sistema. La demostración de la convergencia debe hacerse sin iterar.
1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.
2. Proponga un método de punto fijo (no Newton) para encontrar la solución (α, β) del
sistema. La demostración de la convergencia debe hacerse teóricamente.
3. Si considera una precisión ε = 102 y la norma ||(x, y)||M = max{|x|, |y|} Obtenga la
solución aproximada al sistema en este caso.
1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.
2. Proponga un método de punto fijo (no Newton) para encontrar la solución (α, β) del
sistema. La demostración de la convergencia debe hacerse sin iterar.
3. Partiendo del punto inicial (x0 , y0 ) = (0.95, 0.23) realice 2 iteraciones con ambos métodos.
Compare los resultados. Cuál es su conclusión?
Muestre que si h es elegido suficientemente pequeño y no cero, entonces el sistema tiene una
única solución α = (α1 , α2 ) en alguna región rectangular. Además, muestre que el método
iterativo de punto fijo definido por el sistema es convergente a la solución α para cualquier
elección (x0 , y0 ) elegida en la región que determinó. (La demostración de la convergencia debe
hacerse sin iterar.)
1. Proponga un método de punto fijo, no Newton, convergente para encontrar una solución
del sistema. La demostración de la convergencia debe hacerse sin iterar.
2. Demuestre sin iterar que el método de Newton es convergente en un región que contiene
una solución del sistema, y encuentre una solución con una aproximación de 10−3 usando
la norma || ||∞ .
f (x)
(a) Demuestre que el método iterativo de punto fijo g(x) = x − m tiene orden de
f (x)
convergencia la menos 2.
(b) Use la parte a) para calcular la raı́z positiva de x4 − 1 = 0 , redondeando cada operación
a 4 dı́gitos y con una precisión de 10−3 , comenzando con x0 = 0.8 .
(a) Demuestre que ella tiene una única raı́z, la cual es positiva.
(b) Demuestre que el método de Newton asociado a esta ecuación es convergente para cualquier
condición inicial x0 ∈ [0, 10]
(c) Comenzando con la condición inicial x0 = 10 . Realice algunas iteraciones con el método
de Newton Cuál es su conclusión?
(d) Considere el intervalo [0, 10] , use el método de bisección para encontrar una aproximación
a la raı́z, con una precisión de 10−3 . Compare su resultado con lo obtenido en el item
c). Cuál es su conclusión?
Problema 2.55 Considere el polinomio f (x) = 230x4 + 18x3 + 9x2 − 221x − 9 . Se sabe que
este polinomio tiene una raı́z en el intervalo [0, 1] .
a) Use el método de bisección para aproximar la raı́z de f (x) con una presición de 10−3 .
b) Use el método de Newton para aproximar la raı́z de f (x) con una presición de 10−5 ,
comenzando con x0 = 0.3 .
c) Proponga un método iterativo de punto fijo convergente para aproximar la raı́z de f (x) .
La convergencia debe demostrarla sin iterar.
a) Proponga un método iterativo de punto fijo convergente para encontrar la solución del
sistema. La demostración de la convergencia debe hacerse sin iterar.
b) Explı́cite las componentes del método iterativo de Newton para este sistema, y demuestre
la convergencia del método para este caso (teóricamente).
c) Usando el método iterativo convergente que propuso en a), comenzando con el punto
(0.1, 0.1, −0.1) realice iteraciones hasta obtener una aproximación (xk , yk , zk ) de la solución,
la cual satisface la siguiente condición: ||(xk , yk , zk ) − (xk−1 , yk−1 , zk−1 )||∞ 10−3 .
x2 + xy 3 = 9
3x2 y − y 3 = 4
Estudie la convergencia del método de Newton para el sistema, suponiendo que su condicións
iniciales son:
Sergio Plaza 84
1. Demuestre, sin iterar, que el método iterativo de Newton es convergente para este caso.
⎧ 2
⎨ x + x(x + y) − 0.5 = 0
⎩
y + y(y − x)2 − 0.5 = 0
a) Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.
b) Proponga un método de punto fijo, no Newton, y demuestre, sin iterar, que converge a
(α, β) .
sen(3x2 y) = x
cos(x) − 3 cos(x3 y 2 ) = y
1. Determine un dominio en el plano que contenga una única solución (α, β) del sistema.
Justifique teóricamente.
2. Proponga un método de punto fijo convergente (no Newton) para encontrar la solución
(α, β) del sistema. La demostración de la convergencia debe hacerse teóricamente.
3. Considere una precisión ε = 102 y la norma ||(x, y)||M = max{|x|, |y|} . Obtenga la
solución aproximada al sistema en este caso.
Problema 2.62 Considere la ecuación x4 − 3x3 + 4x2 − 3x + 1 = 0 . Esta tiene una raı́z α = 1
1. Use el método de Newton para determinar dicha raı́z α , partiendo desde x0 = 0.8 y
realizando 5 iteraciones.
π
1. Proponga un método de punto fijo (no del tipo Newton) convergente a la raı́z α = 2 . La
demostración de convergencia debe hacerse sin iterar.
1. Usando el método iterativo de Newton, comenzando con x0 = 0.3 . Encuentre una raı́z
negativa de f (x) = 0 con precisión de 10−4 , utilizando la máxima capacidad de dı́gitos
de su calculadora.
2. Usando el método de bisección encuentre la raı́z α , con una precisión de 10−3 . Cuántos
iteraciones serı́an necesarias para obtener una aproximación de la raı́z, con precisión de
10−3 , en el peor de los casos? (Use la fórmula de la cota del error).
Sergio Plaza 86
3. Use el método de Newton para determinar dicha raı́z α , partiendo desde x0 = 0.8 con
una precisión de 10−3 .
1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.
3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton) en este caso particular?
1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.
3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton) en este caso particular?
Problema 2.68 Considere la ecuación f (x) = x3 −5x2 +3x−7 = 0 . Se sabe que esta ecuación
tiene una raı́z α cerca de 4.6783 .
1. Use el método de Newton para obtener una aproximación para α con una presición ε =
10−8 , utilizando como criterio de parada |f (xn )| < ε , y como punto inicial a x0 = 4.67 .
Justifique teoricamente la convergencia del método de Newton en este caso.
1. Demuestre que al menos uno de los métodos iterativos propuestos abajo para encontrar la
solución de f (x) = 0 es convergente (ambos podrı́an ser convergentes). La demostración
de la convergencia debe hacerse en forma teórica.
xn − e1/xn 1 − xn ln(xn )
xn+1 = g1 (xn ) = xn − x2n y xn+1 = g2 (xn ) = xn +
x2n + e1/xn 1 + ln(xn )
Use el métodos que demostró que es convergente para encontrar una solución de f (x) = 0 ,
con una precisión ε = 10−3 , con el criterio de parada |xn+1 − xn | ε , y comenzando
con x0 = 1.76 .
3. Use el método de la secante para encontrar una solución de f (x) = 0 , con una precisión
ε = 10−3 , con el criterio de parada |xn+1 − xn | ε , comenzando con x0 = 1.76 y
x1 = 1.763 .
1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.
3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
. Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto
en 2) y Newton) en este caso particular?
4. Realice 2 iteraciones con el método propuesto en 2) o 3), comenzando con (0, 0) (especi-
fique cual de los métodos está usando)
2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.
3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.6, 0.7) y
estime
√ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
( 8 , 135
21
8 ).
2. Usando el método que propuso en a), encuentre una solución aproximada a α con un
error de no más de 10−2
1. Proponga un método
√ iterativo de punto fijo, no Newton, el cual sea convergente a la
solución α = − 10 . La demostración de la convergencia debe hacerse sin iteraciones.
2. Usando el método que propuso en a), encuentre una solución aproximada a α con un
error de no más de 10−2
2. Se sabe que el sistema tiene una solución (α, β) en el primer cuadrante. Demuestre que
el método iterativo de Newton es convergente en una vecindad de la solución (α, β) . La
demostración debe hacerse sin iterar y sin usar argumentos teóricos de punto fijo.
3. Realice 3 iteraciones con el método de Newton, comenzando con el punto (2.2, 3.4) y
estime
√ el error del resultado de la tercera iteración respecto a la solución exacta (α, β) =
(3, 12 ) .
1. Determinar una región D ⊂ R2 que contiene una única solución α = (α1 , α2 ) del sistema.
3. Demuestre (sin iterar) que que el método de Newton converge a alguna solución del sistema
Qué puede decir acerca de la rapidez de convergencia de ambos métodos (el propuesto en
2) y Newton) en este caso particular?
4. Realice 2 iteraciones con el método propuesto en 2) o 3), comenzando con (0, 0) (especi-
fique cual de los métodos está usando)
(a) Determine la fórmula de Newton xn+1 = g(xn ) para calcular el cero de la función f .
Tomando como valor inicial x0 = 1, calcule según la fórmula de iteración de Newton
encontrada en la parte (a) los valores de x1 , x2 y x3 .
(b) Calcule usando como valores iniciales x0 y x1 obtenidos en (a), los valores de x2 y x3
usando el método de la secante. ¿Podrı́a usted usar el método de Regula-falsi?. Explique
su respuesta en el caso negativo o partiendo de dos puntos iniciales apropiados x0 y x1 ,
obtenga los valores de x2 y x3 en caso afirmativo.
(c) Demuestre que el método de Newton usado en la parte (a) tiene un orden de convergencia
p = 1. De un método alternativo de iteración que garantice un orden de convergencia
p = 2 y demuestre que efectı́vamente este es su orden de convergencia.
Problema 2.77 Aplique el método de la bisección y regula falsi para encontrar una aproxi-
mación a solución de ecuación x = tan(x) en [4,4.5]. Use una tolerancia de 10−3 .
Problema
√ 2.78 Use el método de la bisección y regula falsi para encontrar una aproximación
a 5 correcta en 5 cifras significativas. Sugerencia: considere f (x) = x2 − 5 .
Problema 2.79 Calcule el número de iteraciones que se requieren usando el método de bisección
para alcanzar una aproximación con una exactitud de 103 a la solución de x3 + x − 4 = 0 que
se encuentra en el intervalo [1, 4] . Obtenga una aproximación de la raı́z con este grado de
exactitud.
Problema 2.80 Sean f (x) = (x − 1)10 , α = 1 y xn = 1 + 1/n . Pruebe que |f (xn )| < 10−3
siempre que n > 1 pero que |α−xn | < 10−3 requiere que n > 1000 . Este ejercicio muestra una
función f (x) tal que |f (xn )| se aproxima a cero, mientras que la sucesión de aproximaciones
(xn )n∈N lo hace mucho más lento.
k=1
Problema 2.81 Sea (xn )n∈N la sucesión definida por xn = 1/k . Pruebe que (xn )n∈N
diverge aún cuando limn→∞ (xn − xn−1 ) = 0 . Este ejercicio muestra una sucesión (xn )n∈N con
la propiedad de que las diferencias xn − xn−1 (en referencia al error relativo) convergen a cero,
mientras que la sucesión (xn )n∈N diverge.
Problema 2.82 El método dede bisección se puede aplicar siempre que f (a)f (b) < 0 . Si f (x)
tiene más de un cero en (a, b) se podrá saber de antemano cuál cero es el que se encuentra al
aplicar el método de la bisección? ilustre su respuesta con ejemplos.
Sergio Plaza 90
Problema 2.83 Las siguientes funciones cumplen con la condición f (a) · f (b) < 0 , donde
a = 0 y b = 1 . Si se aplica el método de bisección en el intervalo [a, b] a cada una de esas
funciones Qué punto se encuentra en cada caso? Es este punto un cero de f ?
−1 1, para x > 0
a. f (x) = (3x − 1) b. f (x) = cos(10x) c. f (x) =
−1, para x 0 .
Problema 2.84 Verifique que se puede aplicar el método de bisección para aproximar el único
cero de la función f (x) = x3 − x − 1 en el intervalo [1, 2] Cuántas iteraciones serán necesarias
para que al aplicar el método de bisección en el intervalo [1,2] se logre una aproximación de por
lo menos 3 cifras decimales exactas? Calcule tal aproximación.
√
Problema 2.85 Estudie la función g(x) = 1 + x2 como una posible función de iteración de
punto fijo Por qué no es convegente la iteración xn = g(xn−1 ) , n = 1, 2, . . .? .
Problema 2.86 Verifique que cada una de las siguientes funciones gi (x) , i = 1, 2, 3, 4 es una
función de iteración de punto fijo para la ecuación x4 + 2x2 − x − 3 = 0 , es decir, α = gi (α) ,
i = 1, 2, 3, 4 implica que f (α) = 0 , siendo f (x) = x4 + 2x2 − x − 3
3x4 + 2x2 + 3
d) g4 (x) = .
4x3 + 4x − 1
Efectúe 4 iteraciones, si es posible, con cada una de las funciones de iteración definidas
arriba, tomando x0 = 1 y xn = gi (xn−1 ), i = 1, 2, 3, 4 Cuál función cree usted que da la mejor
aproximación? Explique.
Problema 2.87 Demuestre que la ecuación 2 sin (πx) + x = 0 tiene una única raı́z α ∈
[1/2, 3/2] . Use un método de iteración de punto fijo para encontrar una aproximaión de α con
una precisión de por lo menos tres cifras significativas.
Problema 2.88 Pruebe que la función g(x) = 2 + x − tan−1 (x) tiene la propiedad |g (x)| < 1
para toda x . Pruebe que g no tiene un punto fijo. Explique porqué esto no contradice los
teoremas sobre existencia de punto fijo.
Problema 2.89 Use un método iterativo de punto fijo para demostrar que la sucesión (xn )n∈N
definida por
1 2
xn+1 = xn + , n = 0, 1, 2, . . .
2 xn
√
converge a 2 para x0 > 0 escogido adecuadamente.
En general, si R > 0 , entonces la sucesión (xn )n∈N definida por
Sergio Plaza 91
1 R
xn+1 = xn + , n = 0, 1, 2, · · ·
2 xn
√
converge a R para x0 > 0 escogido adecuadamente. Esta sucesión se usa con frecuencia
en subrutinas para calcular raı́ces cuadradas.
+ *
√
x= 2+ 2 + 2+
Problema 2.91 Resuelva la ecuación 4 cos(x) = ex con una precisión de 5 × 10−5 , es decir,
calcular las iteraciones xn hasta que |xn − xn−1 | < 5 × 10−5 usando
x 2 π
sen(x) − = 0, con x0 = .
2 2
Itere hasta obtener una precisión de 5 × 10−5 para la raı́z aproximada con f (x) = (sen(x) −
x 2
2) e parecen los resultados fuera de lo común para el método de Newton? Resuelva también
la ecuación con x0 = 5π y x0 = 10π .
2
f (xn ) f (xn )
xn+1 = xn − + h(xn )
f (xn ) f (xn )
Problema 2.95 Considere una firma que desea maximizar sus ganancias, eligiendo el precio
de venta de su producto, denotado por y y la cantidad gastada en publicidad, denotada por
z . Para esto, se supone que la función de beneficio B viene dada por
B = yx − (z + g2 (x)),
B = Beneficio
x = número de unidades vendidas
y = precio de venta por unidad
z = dinero gastado en publicidad
g1 (y, z) representa una predicción de unidades vendidas
cuando el precio es y y el gasto en publicidad es z
g2 (x) es el costo de producir × unidades
Se pide encontrar los valores de y y de z que maximicen el Beneficio B . Para esto, resuelva
el sistema no lineal
∇B(y, z) = 0.
Problema 2.96 Sea f (x) = ex − 1 − cos(πx) . Muestre que la ecuación f (x) = 0 tiene
una única raı́z en [0, 1] . Estudie que ocurre con el método de Newton comenzando con las
condiciones iniciales x0 = −ε y x0 = 1 + ε , x0 = 0 y x0 = 1 .
8x−1
Problema 2.97 Defina f : ]0, ∞[−→ R definida como f (x) = x − ex . Considere los
métodos iterativos
1 8xn − 1
xn+1 = f1 (xn ) = (1 + xn exn ) y xn+1 = f2 (xn ) = ln
8 xn
Cual de ellos es convergente a la raı́z de f (x) = 0 más próxima de cero? Cual de ellos es
convergente a la raı́z de f (x) = 0 más próxima de 2?
Problema 2.98
Problema 2.99
f (x)
Nf (x) = x −
f (x)
mediante un argumento geométrico. En esta nota veremos que podemos obtener esa fórmula a
partir del Teorema Fundamental del Cálculo.
Del teorema Fundamental del Cálculo tenemos que
x
f (x) = f (xn ) + f (t)dt (2.25)
xn
aproximando el valor de la integral por el área del rectángulo de base xn , x y altura f (xn ) ,
obtenemos
x
f (t)dt ≈ f (xn )(x − xn ) (2.26)
xn
de donde
f (xn )
xn+1 = xn − (2.29)
f (xn )
x
f (t)dt ,
xn
obtenemos
x
x − xn x + xn
f (t)dt ≈ [f (x) + 4f ( ) + f (xn )] (2.30)
xn 6 2
y tenemos la ecuación
Sergio Plaza 94
x − xn x + xn
M̂ (x) = f (xn ) + [f (x) + 4f ( ) + f (xn )] . (2.31)
6 2
x − xn x + xn
f (xn ) + [f (x) + 4f ( ) + f (xn )] = 0 (2.32)
6 2
de donde
6f (xn )
xn+1 = xn − (2.33)
f (xn+1 ) + 4f ( xn +x
2
n+1
) + f (xn )
f (xn )
si reemplazamos xn+1 por xn+1 = xn − f (xn ) en el lado derecho de la igualdad anterior,
obtenemos la fórmula iterativa
6f (xn )
xn+1 = xn − (2.34)
f (xn ) 1 f (xn )
f xn − f (xn ) + 4f xn − 2 f (xn ) + f (xn )
2f (xn )
xn+1 = xn − (2.35)
f (xn )
f (xn ) + f xn − f (xn )
que también es de orden de convergencia 3 en las raı́ces simples de f (x) . Para obtener esta
fórmula iterativa, aproximamos la integral
x
f (t)dt
xn
Resolviendo la ecuación
(x − xn )
Mf (x) = f (xn ) + (f (x) + f (xn )) = 0 , (2.37)
2
si xn+1 es su solución, obtenemos
(xn+1 − xn )
f (xn ) + (f (xn ) + f (xn+1 )) = 0 , (2.38)
2
de donde
2f (xn )
xn+1 = xn − (2.39)
f (xn ) + f (xn+1 )
Sergio Plaza 95
2f (xn )
xn+1 = xn − . (2.40)
f (xn )
f (xn ) + f xn − f (xn )
Capı́tulo 3
Ax = b, (3.2)
T T
donde A = (aij )n×n ∈ M (n × n, R) , b = (b1 , b2 , . . . , bn ) ∈ Rn y x = (x1 , x2 , . . . , xn ) ∈
Rn es la incógnita.
En la siguiente sección estudiaremos algunos métodos directos para resolver sistemas de
ecuaciones lineales, posteriormente abordaremos algunos métodos iterativos .
96
Sergio Plaza 97
Observación.
3. Si A ∈ M (n × n, R) es no singular, entonces
1 1
||A−1 ||2 = =√ ,
inf{||Ax||2 : ||x||2 = 1} λmin
5.
A 0
0 B
= max{||A||2 , ||B||2 } .
2
Demostración. Desde la definición de norma matricial se tiene que ||A|| ||Ax|| ||x|| , para
todo x ∈ Rn , con x = 0 , de donde ||Ax|| ||A|| ||x|| , y como esta última desigualdad vale
trivialmente para x = 0 , el resultado se sigue.
Una de las normas más usadas en Algebra Lineal es la norma de Fröbenius la cual es dada
por
⎛ ⎞1/2
-n -m
||A||F = ⎝ a2ij ⎠ , A ∈ M (m × n, R)
i=1 j=1
1. I = 1.
Afirmamos que esta es una norma matricial (se deja al lector la verificación) y no es subor-
dinada a ninguna norma en M (n × n, R) .
En efecto, tomemos las matrices
1 1
A=B= .
0 1
Teorema 3.3 Para las normas matriciales definidas anteriormente valen las siguientes rela-
ciones. Sea A ∈ M (n × n, R) , entonces
√
1. ||A||2 ||A||F n ||A||2
Teorema 3.4 Sea A ∈ M (n × n, R) , con A < 1 , entonces I − A es una matriz que tiene
∞
inversa, la cual viene dada por (I − A)−1 = Ak , donde A0 = I . Además, se tiene que
3 3 k=0
3 −1 3 1
3(I − A) 3 .
1 − A
pA (λ) = det (A − λ I) = 0,
Sergio Plaza 100
Observación. Geométricamente ρ (A) es el menor radio tal que el cı́rculo centrado en el origen
en el plano complejo con radio ρ(A) contiene todos los valores propios de A .
√
Observación. Si λ = a + ib ∈ C , su valor absoluto o norma es dado por | λ | = a2 + b2 .
Teorema 3.6 Se tiene ρ (A) = inf A , donde el ı́nfimo es tomado sobre todas las normas
matriciales definidas sobre el espacio vectorial M (n × n, R) .
Observación. Desde la definición de las norma matriciales || ||∞ y || ||1 vemos que calcularlas
para una matriz dada es fácil. Para lo norma || ||2 el cálculo no es tan sencillo, pero tenemos
el siguiente resultado.
' (1/2
||A||2 = max |λ| : λ ∈ σ(AT A) ,
en otras palabras, ||A||2 es la raı́z cuadrada del mayor valor propio de la matriz AT A .
Caso 1: Se perturba A−1 para obtener una nueva matriz B , la solución x = A−1 b resulta
perturbada y se obtiene un vector xA = Bb que deberı́a ser una solución aproximada al sistema
original. Una pregunta natural ¿es que ocurre con E(xA ) = xT − xA ? Tenemos
xT − xA
ER (xA ) = I − BA .
xT
3 3 3 3 3 3
xT − xA = 3A−1 b − A−1 bA 3 = 3A−1 (b − bA )3 3A−1 3 b − bA ,
por lo tanto
esto es,
3 3
E (xA ) b − bA = 3A−1 3 E (bA ) , (3.3)
3 3 3 3 b − bA 3 3 b − bA
xT − xA 3A−1 3 b − bA = 3A−1 3 AxT 3A−1 3 A xT
b b
luego
xT − xA 3 3 b − bA 3 3
ER (xT ) = 3A−1 3 A = 3A−1 3 A ER (bA ) .
xT b
esto es,
ER (xA ) ||A−1 || ||A||ER (bA . (3.4)
Ejemplo 49 Considere
1 1+ε
A= ,
1−ε 1
con ε > 0, suficientemente pequeño. Tenemos que det(A) = ε2 ≈ 0 es muy pequeño, lo cual
significa que A es “casi singular”. Como
Sergio Plaza 102
−1 −2 1 −1 − ε
A =ε ,
−1 + ε 1
3 3
obtenemos que A∞ = 2 + ε, 3A−1 3∞ = ε−2 (2 + ε) , por lo tanto
(2 + ε)2 4
κ (A) = .
ε2 ε
Observe que si ε < 0.0001 , entonces k (A) 40.000 .
Tenemos
1.0 × 108 −1.0 × 108
A−1 =
−1.0 × 108 1.0 × 108
Luego, ||A||1 = ||A||2 ≈ ||A||∞ = 2 , ||A−1 ||1 = ||A−1 ||∞ ≈ ||A−1 ||2 ≈ 2 × 108 , luego
κ1 (A) = κ∞ (A) ≈ 4 × 108 .
La matriz A tiene sólo unos en su diagonal, y sobre ella tiene sólo menos unos. Tenemos que
det(A) = 1 , pero κ∞ (A) = n2n−1 , esta matriz está mal condicionada.
1. Ae = r.
xT −xA b−bA r
¿Qué relación existe entre xT y b = b ?
1 b − bA xT − xA b − bA
κ (A) , (3.6)
κ (A) b xT b
es decir,
1 r e r
κ (A) . (3.7)
κ (A) b xT b
B = A(I + E)
donde I denota la matriz identidad y E es una matriz de error, entonces se tienen las siguientes
cotas para el error relativo
si ||AE|| < 1 y
||xT − xA || ||E||
(3.9)
||xT || 1 − ||E||
si ||E|| < 1 .
Observación. Sea A ∈ M (n × n, R) . Denotemos por λmax y λmin *
, respectivamente, el
λmax
máximo y el mı́nimo de los valores propios de AAT . Entonces κ2 (A) = λmin .
Tenemos que ⎛ ⎞
3
√ 0
⎜ 3 ⎟
⎜ ⎟
A =⎜
T
⎜ √ ⎟
⎟
⎝ 1 8 ⎠
−√ √
3 3
Luego
⎛ √ ⎞
10 8
⎜ 3 −λ −
3 ⎟
⎜ ⎟
AAT − λI = ⎜ √ ⎟.
⎝ ⎠
8 8
− −λ
3 3
Sergio Plaza 104
Por lo tanto, det(AAT − λI) = λ2 − 6λ + 8 , de donde los valores propios de AAT son λ = 2
y λ = 4 , es decir, λmin = 2 y λmax = 4 . Luego
1 1
||A||2 = λmax = 2 y ||A−1 ||2 = √ = √ ,
λmin 2
√
y se tiene que κ2 (A) = √2 = 2.
2
3. Reemplazar la fila i , Fi , por la suma de la fila i más un múltiplo no nulo λFj de la fila
j , i = j , denotamos esta operación por Fi → Fi + λFj
Definición 3.7 Decimos que una matriz A es una matriz elemental si ella se obtiene a partir
de la matriz identidad a través de una única operación elemental. Una matriz elemental será
denotada por E .
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
Ejemplo 53 1. ⎝ 0 1 0 ⎠ F3 ↔ F2 ⎝ 0 0 1 ⎠.
0 0 1 0 1 0
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
2. ⎝ 0 1 0 ⎠ F2 → rF2 ⎝ 0 r 0 ⎠
0 0 1 0 0 1
Sergio Plaza 105
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
3. ⎝ 0 1 0 ⎠ F3 → F3 + rF2 ⎝ 0 1 0 ⎠
0 0 1 0 r 1
1. A tiene inversa.
2. det (A) = 0.
⎛ ⎞ ⎛ ⎞
l11 0 0 ··· 0 u11 u12 ··· u1n−1 u1n
⎜ l21 l22 0 ··· 0 ⎟ ⎜ 0 u22 ··· u2n−1 u2n ⎟
⎜ ⎟ ⎜ ⎟
L=⎜ .. .. .. .. .. ⎟ y U =⎜ .. .. .. .. .. ⎟ (3.10)
⎝ . . . . . ⎠ ⎝ . . . . . ⎠
ln1 ln2 ··· lnn−1 lnn 0 0 0 ··· unn
T
L = (F1 F2 . . . Fn ) y U = (C1 C2 · · · Cn ) ,
donde Fi = (li1 li2 · · · lii 0 · · · 0) y Ci = (u1i u2i · · · uii 0 · · · 0)T , son las filas de L y
las columnas de U , respectivamente.
Ahora, al desarrollar la multiplicación A = LU ,
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
a11 a21 ··· a1n F1 F1 C1 F1 C2 ··· F1 Cn
⎜ a21 a22 ··· a2n ⎟ ⎜ F2 ⎟ ⎜ F2 C1 F2 C2 ··· F2 Cn ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟=⎜ .. ⎟ (C1 C2 · · · Cn ) = ⎜ .. .. .. .. ⎟
⎝ . . . . ⎠ ⎝ . ⎠ ⎝ . . . . ⎠
an1 an2 ··· ann Fn Fn C1 Fn C2 ··· Fn Cn
⎧
⎪
⎪
a11 = F1 C1 = l11 u11
⎪
⎨ a12 = F1 C2 = l11 u12
.. .. .. (3.12)
⎪
⎪ . . .
⎪
⎩
a1n = F1 Cn = l11 u1n
de aquı́, vemos que si fijamos l11 = 0 , podemos resolver las ecuaciones anteriores para u1i ,
i = 1, . . . , n . Enseguida, para la segunda fila de A tenemos
⎧
⎪
⎪
a21 = F2 C1 = l21 u11
⎪
⎨ a22 = F2 C2 = l21 u12 + l22 u22
.. .. .. (3.13)
⎪
⎪ . . .
⎪
⎩
a2n = F2 Cn = l21 u1n + l22 u2n
como u11 ya lo conocemos desde las ecuaciones (3.12), podemos encontrar el valor l21 , conocido
este valor, fijando un valor no cero para l22 , y dado que conocemos los valores u1i para
i = 2, . . . , n , podemos encontrar los valores de u2i para i = 2, . . . , n . Siguiendo este método
vemos que es posible obtener la descomposición de A en la forma LU . Note que también
Sergio Plaza 107
podemos comparar las columnas de A con aquellas obtenidas desde el producto LU y proceder
a resolver las ecuaciones resultantes. El problema es ahora saber bajo que condiciones dada
una matriz A ella puede descomponerse en la forma LU , es decir, siempre y cuando podamos
hacer las elecciones anteriores.
⎛ ⎞
10 −3 6
Ejemplo 54 Sea A = ⎝ 1 8 −2 ⎠ . Encontremos una descomposición LU para A .
−2 4 −9
Escribamos ⎛ ⎞ ⎛ ⎞⎛ ⎞
10 −3 6 l11 0 0 u11 u12 u13
⎝ 1 8 −2 ⎠ = ⎝ l21 l22 0 ⎠ ⎝ 0 u22 u23 ⎠
−2 4 −9 l31 l32 l33 0 0 u33
⎧
⎨ l11 u11 = 10
l u = −3
⎩ 11 12
l11 u13 = 6
de aquı́ fijando un valor no cero para l11 , digamos l11 = 2 , obtenemos que u11 = 5 , u12 = − 32 ,
y u13 = 3 . Enseguida tenemos las ecuaciones
⎧
⎨ l21 u11 = 1
l u + l22 u22 = 8
⎩ 21 12
l21 u13 + l22 u23 = −2
como u11 = 5 se tiene que l21 = 15 . Ahora fijamos el valor de l22 = 1 y obtenemos los valores
u22 = 83 13
10 , y u23 = − 5 . Finalmente, para la última fila de A , nos queda
⎧
⎨ l31 u11 = −2
l31 u12 + l32 u22 = 4
⎩
l31 u13 + l32 u23 + l33 u33 = −2
0 1
Ejemplo 55 La matriz A = no tiene descomposición de la forma LU . Notemos
1 1
que det(A) = 0 .
Para verlo supongamos que podemos escribir A = LU , donde
l11 0 u11 u12
L= y U= .
l21 l22 0 u22
0 1 l11 0 u11 u12
=
1 1 l21 l22 0 u22
Como l11 u12 = 1 , no es posible que (*) sea verdadero, es decir, debemos tener que l11 = 0 ,
en consecuencia se debe tener que u11 = 0 , pero además se tiene que u12 = 0 . Ahoram, como
l21 u11 = 1 , llegamos a una contradicción. Luego tal descomposición para A no puede existir.
⎛ ⎞
a11 a21 ··· a1k
⎜ a21 a22 ··· a2k ⎟
a11 a21 ⎜ ⎟
A1 = (a11 )1×1 , A2 = , . . . , Ak = ⎜ .. .. .. .. ⎟ ,
a21 a22 2×2
⎝ . . . . ⎠
ak1 ak2 ··· akk k×k
. . . , An = A .
Teorema 3.10 Si los n menores principales de una matriz A tienen determinante distinto
de cero, entonces A tiene una descomposición LU .
Ejemplo 56 La matriz
⎛ ⎞
2 −1 0
A = ⎝ −1 2 −1 ⎠
0 −1 2
T
es definida positiva. En efecto considere x = (x y z) , tenemos
⎛ ⎞⎛ ⎞
2 −1 0 x
x, Ax = (x, y, z) ⎝ −1 2 −1 ⎠ ⎝ y ⎠ = 2x2 − 2xy + 2y 2 − 2yz + 2z 2 .
0 −1 2 z
Luego,
x, Ax = 2x2 − 2xy + 2y 2 − 2yz + 2z 2
2 2
= x2 + (x − y) + (y − z) + z 2 > 0,
para todo (x, y, z) = (0, 0, 0) .
Ejemplo 57 La matriz
⎛ ⎞
2 −1 0
A = ⎝ −1 2 −1 ⎠
0 −1 2
2 −1
es definida positiva, pues se tiene que det (A1 ) = 2 > 0 , det (A2 ) = det =3>0
−1 2
y det (A3 ) = det (A) = 4 > 0 . Luego tiene descomposición de Cholesky.
Ahora, para encontrar la descomposición de Cholesky para esta matriz procedemos como
sigue.
⎛ ⎞ ⎛ ⎞⎛ ⎞
2 −1 0 l11 0 0 l11 l21 l31
⎝ −1 2 −1 ⎠ = ⎝ l21 l22 0 ⎠⎝ 0 l22 l32 ⎠
0 −1 2 l31 l32 l33 0 0 l33
√ √
2
Luego, l11 = 2 , es decir, l11 = 2 ; −1 = l11 l21 , de donde l21 = − 22 ; 0 = l11 l31 , de
√ √
2
donde l31 = 0 ; l21 2
+ l22 = 2 , de donde l22 = √52 ; l21 l31 + l22 l32 = −1 , de donde l32 = − √25 ;
√
2 2 2 2√ 2
l31 + l32 + l33 = 2 , de donde l33 = 5
.
Por lo tanto
⎛ ⎞ ⎛ √2 0 0
⎞⎛ √ √
2 −√ 22
⎞
2 −1 0 √ √
0√
⎝ −1 2 −1 ⎠ = ⎜
⎝ − 2
2 √5 0 ⎟⎜ 0
⎠⎝ √5 − √25 ⎟
⎠.
√2 √ 2 √
0 −1 2 0 − √25 2√ 2
0 0 2√ 2
5 5
⎛ ⎞⎛ ⎞ ⎛ ⎞
a11 a21 ··· a1n x1 b1
⎜ a21 a22 ··· a2n ⎟⎜ x2 ⎟ ⎜ b2 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟⎜ .. ⎟=⎜ .. ⎟.
⎝ . . . . ⎠⎝ . ⎠ ⎝ . ⎠
an1 an2 ··· ann xn bn
esto es, consideramos la matriz aumentada del sistema. En la notación anterior, los sı́mbolos
Fi denotan las filas de la nueva matriz.
Sergio Plaza 111
aj1
(Fj − mj1 F1 ) → Fj , donde mj1 = , j = 2, 3, ..., n . (3.14)
a11
⎛ ⎞
1 0 ··· 0
⎜ −m21 1 ··· 0 ⎟
⎜ ⎟
M (1) = ⎜ .. .. . . .. ⎟ (3.15)
⎝ . . . . ⎠
−mn1 0 ··· 1
(2)
aj2
mj2 = (2)
, j = 3, 4, . . . , n (3.17)
a22
Ası́ obtenemos
En general, con A(k) x = b(k) ya formada, multiplicamos por la k–ésima matriz de transfor-
mación gaussiana
⎛ ⎞
1 0 ··· ··· 0
⎜ 0 1 ⎟
⎜ ⎟
⎜ .. .. .. ⎟
⎜ . ⎟
⎜ . 1 . ⎟
⎜ ⎟
M (k)
=⎜
⎜ .
0 ⎟
⎜ . .. .. ⎟
⎟
⎜ . −mk+1 k . . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝ . . 0 0 ⎠
0 · · · 0 −mn k 0 0 1
para obtener
Sergio Plaza 112
A(k+1) x = M (k) A(k) x = M (k) · · · M (1) Ax = M (k) b(k) = b(k+1) = M (k) · · · M (1) b (3.19)
Este proceso termina con la formación de un sistema A(n) x = b(n) , donde A(n) es una matriz
triangular superior
⎛ (1) (1) (1) ⎞
a11 a12 · · · a1n
⎜ (2) (2) ⎟
⎜ 0 a22 . . . a2n ⎟
⎜ ⎟
(n) ⎜ .. . ⎟
A =⎜ . .. ⎟
⎜ . .. ⎟
⎜ .. . . an−1 n ⎟
(n−1)
⎝ . . ⎠
(n)
0 ··· 0 ann
dada por
para poder revertir los efectos de esta transformación debemos considerar primero la matriz
−1
L(k) = M (k) , la cual esta dada por
⎛ ⎞
1 0 ··· ··· ··· 0
⎜ .. ⎟
⎜ 0 1 . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ ⎟
−1 ⎜ . 1 . ⎟
⎜ .. ⎟
L(k) = M (k) =⎜
⎜
..
. 0
..
. ⎟
. ⎟.
⎜ ⎟
⎜ .. .. ⎟
⎜ . mk+1 k . ⎟
⎜ ⎟
⎜ .. .. .. .. ⎟
⎝ . . . 0 . 0 ⎠
0 ··· 0 mn k 0 0 1
obtenemos
x + y + 3w = 4
2x + y − z + w = 1
3x − y − z + w = −3
−x + 2y + 3z − w = 4
x + y + 3w = 4
−y − z − 5w = −7
3z + 13w = 13
−13w = −13
Por lo tanto la factorización LU está dada por
⎛ ⎞ ⎛ ⎞⎛ ⎞
1 1 0 3 1 0 0 0 1 1 0 3
⎜ 2 −1 ⎟ ⎜ 2 0 ⎟ ⎜ ⎟
A=⎜
1 1 ⎟ ⎜ 1 0 ⎟ ⎜ 0 −1 −1 −5 ⎟ = LU.
⎝ 3 −1 −1 2 ⎠ = ⎝ 3 4 1 0 ⎠ ⎝ 0 0 3 13 ⎠
−1 2 3 −1 −1 −3 0 1 0 0 0 −13
L U
Esta factorización nos permite resolver fácilmente todo sistema que posee como matriz aso-
ciada la matriz A . Ası́, por ejemplo, para resolver el sistema
⎛ ⎞⎛ ⎞⎛ ⎞ ⎛ ⎞
1 0 0 0 1 1 0 3 x 8
⎜ 2 1 0 ⎟ ⎜
0 ⎟⎜ 0 ⎟ ⎜
−1 −1 −5 ⎟ ⎜ y ⎟ ⎜ 7 ⎟
Ax = LU x = ⎜
⎝ 3
⎟=⎜ ⎟
4 1 0 ⎠⎝ 0 0 3 13 ⎠ ⎝ z ⎠ ⎝ 14 ⎠
−1 −3 0 1 0 0 0 −13 w −7
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 0 0 0 y1 8
⎜ 2 1 0 0 ⎟ ⎜ y2 ⎟ ⎜ 7 ⎟
LU x = Ly = ⎜
⎝ 3
⎟⎜ ⎟=⎜ ⎟
⎠ ⎝ 14 ⎠ .
4 1 0 ⎠ ⎝ y3
−1 −3 0 1 y4 −7
Sergio Plaza 114
Este sistema se resuelve para y mediante un simple proceso de susbtitución hacia adelante,
con lo cual obtenemos
⎛ ⎞ ⎛ ⎞
y1 8
⎜ y2 ⎟ ⎜ −9 ⎟
y=⎜ ⎟ ⎜
⎝ y3 ⎠ = ⎝ 26
⎟.
⎠
y4 −26
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 1 0 3 x 8
⎜ 0 ⎟ ⎜
−1 −1 −5 ⎟ ⎜ y ⎟ ⎜ −9 ⎟
Ux = ⎜
⎝ 0
⎟=⎜ ⎟
0 3 13 ⎠ ⎝ z ⎠ ⎝ 26 ⎠
0 0 0 −13 w −26
⎛
⎞ ⎛ ⎞
x 3
⎜ y ⎟ ⎜ −1 ⎟
x=⎜ ⎟ ⎜
⎝ z ⎠=⎝ 0
⎟.
⎠
w 2
que es la solución buscada.
Ux = z
Lz = Pb
donde P es una matriz de permutación, es decir, es una matriz obtenida a partir de la matriz
identidad intercambiando algunas de sus filas. Más precisamente.
Observación. Las matrices de permutación poseen dos propiedades de gran utilidad que se
relacionan con la eliminación gaussiana. La primera de ellas es que al multiplicar por la izquierda
una A por una matriz de permutación P , es decir, al realizar el producto P A se permutan las
filas de A . La segunda propiedad establece que si P es una matriz de permutación, entonces
P −1 = P T .
Sergio Plaza 115
⎛ ⎞⎛ ⎞ ⎛ ⎞
a11 a12 ··· a1n x1 b1
⎜ a21 a22 ··· a2n ⎟⎜ x2 ⎟ ⎜ b2 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟⎜ .. ⎟=⎜ .. ⎟ (3.21)
⎝ . . . . ⎠⎝ . ⎠ ⎝ . ⎠
an1 an2 ··· ann xn bn
Elección de la fila pivote. Elegimos como fila povote la fila para la cual se tiene que
|ai0 1 |
(3.23)
si0
es el mayor.
Intercambiamos en A la fila 1 con la fila i0 , esto es, realizamos la operación elemental
F1 ↔ Fi0 . Esto nos produce la primera permutación. Procedemos ahora a producir ceros
bajo la primera columna de la matriz permutada, tal como se hizo en la eliminación gaussiana.
Denotamos el ı́ndice que hemos elegido por p1 , este se convierte en la primera componente de
la permutación.
Más especificamente, comenzamos por fijar
p = (p1 p2 . . . pn ) = (1 2 . . . n) (3.24)
como la permutación antes de comenzar el pivoteo. Ası́ la primera permutación que hemos
hecho es
1 2 . . . i0 ... n
.
i0 2 ... 1 ... n
|apj j |
, 2jn (3.25)
spj
api 1
× Fp1
ap1 1
a las filas pi , 2 i n .
En general, supongamos que tenemos que producir ceros en la columna k . Impeccionamos
los números
|api k |
, kin (3.26)
spi
y buscamos el mayor de ellos. Si j es el ı́ndice del primer cuociente más grande, intercambiamos
pk con pj en la permutación p y las filas Fpk con la fila Fpj en la matriz que tenemos en
esta etapa de la eliminación gaussiana–pivoteo. Enseguida producimos ceros en la columna pk
bajo el elemento apk k , para ellos restamos
api k
× Fpk
apk k
|a11 | 2 1
= =
s1 6 3
|a21 | 1
=
s2 8
|a31 |
= 1,
s3
⎛ ⎞
2 3 −6 1 6 1
⎝ 1 −6 8 1 8 2 ⎠
3 −2 1 1 3 3
⎛ ⎞
3 −2 1 1 3 3
⎝ 1 −6 8 1 8 2 ⎠
2 3 −6 1 6 1
en la parte (A|b) de la matriz arriba procedemos a hacer eliminación gaussiana. Los multipli-
cadores son m21 = 13 y m31 = 23 , obtenemos ası́
⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ 0 − 16
3
23
3
2
3 8 2 ⎟
⎜ ⎟
⎝ ⎠
13
0 3 − 20
3
1
3 6 1
⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ 0 − 16
3
23
3
2
3 8 2 1
3 ⎟
⎜ ⎟
⎝ ⎠
13
0 3 − 20
3
1
3 6 1 2
3
Ahora determinamos la nueva fila pivote. Recuerde que la primera fila de esta nueva matriz
permanece inalterada, y sólo debemos trabajar con las filas restantes. Para determinar la nueva
fila pivote, calculamos
Sergio Plaza 118
16
|ap2 2 | 3 16 2
= = =
sp2 8 24 3
13
|ap3 2 | 3 13
= =
sp3 6 18
13 2
como 18 > 3 la nueva fila pivote es la fila 3. Intercambiando F2 ↔ F3 nos queda
⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ 13 ⎟
⎜ 0 3 − 20
3
1
3 6 1 2
3 ⎟
⎜ ⎟
⎝ ⎠
0 − 16
3
23
3
2
3 8 2 1
3
− 16
16
El multiplicador es m32 = 133 = − 13 . Agregando la información del nuevo multiplicador y
3
aplicando eliminación gaussiana, nos queda
⎛ ⎞
3 −2 1 1 3 3
⎜ ⎟
⎜ ⎟
⎜ 13 ⎟
⎜ 0 3 − 20
3
1
3 6 1 2
3 ⎟
⎜ ⎟
⎝ ⎠
7 94 1 16
0 0 − 13 117 8 2 3 − 13
La matriz L es
⎛ ⎞
1 0 0
⎜ ⎟
⎜ ⎟
⎜ 2 ⎟
⎜ 1 0 ⎟
L=⎜ 3 ⎟
⎜ ⎟
⎜ ⎟
⎝ 1 16 ⎠
− 1
3 13
y la matriz de permutación P es
⎛ ⎞
0 0 1
P =⎝ 1 0 0 ⎠
0 1 0
Sergio Plaza 119
puesto que a11 = 0 la matriz no posee una factorización LU . Pero si realizamos el intercambio
de filas F1 ↔ F2 , seguido de F3 → (F3 − F1 ) y de F4 → (F4 − F1 ) obtenemos
⎛ ⎞
1 1 −1 2
⎜ 0 0 −1 1 ⎟
⎜ ⎟.
⎝ 0 0 1 1 ⎠
0 1 0 1
⎛ ⎞
1 1 −1 2
⎜ 0 1 0 1 ⎟
U =⎜
⎝ 0
⎟.
0 1 1 ⎠
0 0 0 2
⎛ ⎞
0 1 0 0
⎜ 0 0 0 1 ⎟
P =⎜
⎝ 0
⎟.
0 1 0 ⎠
1 0 0 0
La eliminación gaussiana en P A se puede realizar sin intercambio de filas usando las opera-
ciones F2 → (F2 − F1 ) , F3 → (F3 − F1 ) y (F4 + F3 ) → F4 , esto produce la factorización LU
de P A
⎛ ⎞ ⎛ ⎞⎛ ⎞
1 1 −1 2 1 0 0 0 1 1 −1 2
⎜ 1 2 −1 3 ⎟ ⎜ 1 1 0 0 ⎟ ⎜ 0 1 0 1 ⎟
PA = ⎜
⎝ 1
⎟=⎜ ⎟⎜ ⎟ = LU.
1 0 3 ⎠ ⎝ 1 0 1 0 ⎠⎝ 0 0 1 1 ⎠
0 0 −1 2 0 0 −1 1 0 0 0 2
⎛ ⎞⎛ ⎞
0 0 −1 1 1 1 −1 2
T ⎜ 1 0 0 ⎟ ⎜
0 ⎟⎜ 0 1 0 1 ⎟
A= P L U =⎜
⎝ 1
⎟.
0 1 0 ⎠⎝ 0 0 1 1 ⎠
1 1 0 0 0 0 0 2
Sergio Plaza 120
-
n
|aii | > |aij |
j = 1
j = i
para todo i = 1, 2, . . . , n .
⎛ ⎞ ⎛ ⎞
7 2 0 6 4 −3
A=⎝ 3 5 −1 ⎠ y B = ⎝ 4 −2 0 ⎠ .
0 5 −6 −3 0 1
Teorema 3.15 Toda matriz A ∈ M (n × n, R) diagonal dominante tiene inversa, más aun,
en este caso podemos realizar la eliminación gaussiana de cualquier sistema lineal de la forma
Ax = b para obtener su solución única sin intercambio de filas, y los cálculos son estables
respecto al crecimiento de los errores de redondeo.
1. A tiene inversa.
Teorema 3.17 Una matriz simétrica A es definida positiva si y sólo si la eliminación gaus-
siana sin intercambio de filas puede efectuarse en el sistema Ax = b con todos los elementos
pivotes positivos. Además, en este caso los cálculos son estables respecto al crecimiento de los
errores de redondeo.
Corolario 3.2 Una matriz simétrica A es definida positiva si y sólo si A puede factorizarse
en la forma LDLT , donde L es una matriz triangular inferior con unos en su diagonal y D
es una matriz diagonal con elementos positivos a lo largo de la diagonal.
Corolario 3.3 Una matriz simétrica A es definida positiva si y sólo si A puede factorizarse
de la forma LLT , donde L es una matriz triangular inferior con elementos distintos de cero
en su diagonal.
Sergio Plaza 121
Corolario 3.4 Sea A ∈ M (n × n, R) una matriz simétrica a la cual puede aplicarse la elim-
inación gaussiana sin intercambio de filas. Entonces, A puede factorizarse en LDLT , donde
L es una matriz triangular inferior con unos en su diagonal y donde D es una matriz diagonal
(1) (n)
con a11 , . . . , ann en su diagonal.
Ejemplo 62 La matriz
⎛ ⎞
4 −1 1
A = ⎝ −1 4.25 2.75 ⎠
1 2.75 3.5
es definida positiva. La factorización LDLT de la matriz A es
⎛ ⎞⎛ ⎞⎛ ⎞
1 0 0 4 0 0 1 −0.25 0.25
A= ⎝ −0.25 1 0 ⎠ ⎝ 0 4 0 ⎠ ⎝ 0 1 0.75 ⎠
0.25 0.75 1 0 0 1 0 0 1
⎛ ⎞⎛ ⎞
2 0 0 2 −0.5 0.5
A = ⎝ −0.5 2 0 ⎠ ⎝ 0 2 1.5 ⎠ .
0.5 1.5 1 0 0 1
⎛ ⎞
1 2 0
Ejemplo 63 La matriz A = ⎝ 2 1 2 ⎠ es una matriz de banda con p = q = 2 y con
0 1 1
ancho de banda 3.
a11 = l11 ;
ai i−1 = li i−1 para cada i = 2, 3, . . . , n;
aii = li i−1 ui−1 i + lii para cada i = 2, 3, . . . , n;
ai i+1 = lii ui i+1 para cada i = 1, 2, 3, . . . , n − 1;
de donde x = (I − G)−1 c .
Ax = b,
donde x(0) ∈ Rn es arbitrario. Sobre la convergencia del método propuesto, tenemos el siguiente
corolario.
Corolario 3.5 La fórmula de iteración x(k+1) = I − Q−1 A x(k) + Q−1 b define una sucesión
que converge a la solución de Ax = b , para cualquier condición inicial x(0) ∈ Rn si y sólo
si ρ I − Q−1 A < 1 . Además, si existe una norma | || en M (n × n, R) , en la cual se
tiene ||I − Q−1 A|| < 1 , entonces el método iterativo converge cualesquiera que sea la condición
inicial x(0) ∈ Rn dada.
3 3 λ 3 3 λk 3 3
3 (k) 3 3 (k) 3 3 (1) 3
3x − x3 3x − x(k−1) 3 · · · 3x − x(0) 3 .
1−λ 1−λ
, es decir,
3 3 λk 3 3
3 (k) 3 3 (1) 3
3x − x3 3x − x(0) 3 . (3.31)
1−λ
Sergio Plaza 124
Observación. Desde la definición de radio espectral de una matriz, se tiene que ρ(A) < 1
implica que existe una norma matricial || || en M (n×n, R) , tal que ||A|| < 1 . Por otra parte, si
||A|| < 1 para alguna norma matricial en M (n×n, R) entonces se tiene que ρ(A) < 1 . Notemos
que si existe una norma matricial || || en M (n × n, R) , tal que ||A|| 1 no necesariamente se
tiene que ρ(A) 1 .
Si existe una norma matricial · para la cual se tiene que TR = ||I − A|| < 1 , entonces
el método iterativo de Richardson es convergente.
⎛ 1 1
⎞ ⎛ 11
⎞
1
⎟⎛ x ⎞ ⎜
2 3 18
⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟⎝ ⎜ ⎟
⎜ 1
3 1 1
2 ⎟ y ⎠=⎜ 11
18 ⎟
⎜ ⎟ ⎜ ⎟
⎝ ⎠ z ⎝ ⎠
1 1 11
2 3 1 18
Solución. Tenemos
⎛ 1 1
⎞ ⎛ ⎞
1 0 − 12 − 31
⎛ ⎞ ⎜ 2 3
⎟ ⎜ ⎟
1 0 0 ⎜ ⎟ ⎜ ⎟
⎜ 1 ⎟ ⎜ ⎟
TR = I − A = ⎝ 0 1 0 ⎠−⎜ 1
3 1 2 ⎟
= ⎜ −1 0 − 21 ⎟
⎜ ⎟ ⎜ 3 ⎟
0 0 1 ⎝ ⎠ ⎝ ⎠
1 1
2 3 1 − 21 − 13 0
Sergio Plaza 125
5
se tiene ||TR ||∞ = 6 < , luego el método iterativo de Richardson para este sistema converge.
⎛ ⎞
a11 ··· 0
⎜ .. .. .. ⎟
QJ = diag (A) = ⎝ . . . ⎠
0 ··· ann
donde los elementos fuera de la diagonal en QJ son todos iguales a 0. Notemos que det(QJ ) =
a11 a22 · · · ann , luego det(QJ ) = 0 si y sólo si aii = 0 para todo i = 1, . . . , n , es decir, QJ
tiene inversa si y sólo si aii = 0 para todo i = 1, . . . , n .
Como antes, colocando esta matriz QJ = diag(A) en la fórmula iterativa definida por
x(k+1) = I − diag(A)−1 A x(k) + diag(A)−1 b , (3.34)
TJ
-
n
|aii | > |aij | , 1 i n,
j=1 , j=i
n
aij
es decir,
aii
< 1 , por lo tanto tenemos el siguiente teorema.
j=1 , j=i
Teorema 3.20 Si A es una matriz diagonal dominante, entonces el método iterativo de Ja-
cobi es convergente para cualquiera que sea la condición inicial x(0) elegida.
Sergio Plaza 126
⎛ ⎞
a11 0 ··· 0
⎜ a21 a22 ··· 0 ⎟
⎜ ⎟
QG-S = ⎜ .. .. .. .. ⎟
⎝ . . . . ⎠
an1 an2 ··· ann
Se tiene que det(QG-S ) = a11 a22 · · · ann . Luego, det(QG-S ) = 0 si y sólo si aii = 0 ( i =
1, . . . , n ). Usando la matriz QG-S , obtenemos el método iterativo
x(k+1) = I − Q−1 A x(k) + Q−1 b. (3.35)
G-S G-S
TG-S
⎛ ⎞⎛ ⎞ ⎛ ⎞
4 2 1 x 5
⎝ 2 5 2 ⎠⎝ y ⎠ = ⎝ 4 ⎠
1 2 6 z 7
Explicitaremos los métodos iterativos de Jacobi y Gauss–Seidel para este sistema. Estudi-
aremos la convergencia de ellos sin iterar. Finalmente, sabiendo que la solución exacta del
sistema es (xT , yT , zT ) = (1, 0, 1) y usando el punto de partida (1, 1, 1) nos podemos pregun-
tar ¿Cuál de ellos converge más rápido?, para las comparaciones usaremos la norma ∞ en
M (n × n, R) .
Primero que nada tenemos que los métodos iterativos de Jacobi y Gauss–Seidel convergen,
pues la matriz asociada al sistema es diagonal dominante.
Explicitaremos el método de Jacobi. En este caso tenemos
⎛ ⎞
4 0 0
QJ = ⎝ 0 5 0 ⎠
0 0 6
por lo tanto
Sergio Plaza 127
⎛ 1 ⎞
4 0 0
Q−1
J =⎝ 0 1
5 0 ⎠
1
0 0 6
luego
⎛ 1 ⎞⎛ ⎞ ⎛ 1 1 ⎞
4 0 0 4 2 1 1 2 4
Q−1
J A =⎝ 0 1
5 0 ⎠ ⎝ 2 5 2 ⎠ = ⎝ 2
5 1 2
5
⎠
1 1 1
0 0 6 1 2 6 6 3 1
de donde
⎛ ⎞ ⎛ 1 ⎞⎛ ⎞ ⎛ ⎞
0 − 12 − 14 4 0 0 5 5
4
TJ I − Q−1 A = ⎝ −2 − 25 ⎠ y Q−1 ⎝ 0 1
0 ⎠⎝ 4 ⎠ = ⎝ 4 ⎠ ,
J 5 0 J b = 5 5
− 61 − 13 0 0 0 1
6 7 7
6
por lo tanto
⎧
⎪ −2yk − zk + 5
⎪
⎪ xk+1 =
⎪
⎪ 4
⎪
⎪
⎪
⎨
−2xk − 2zk + 4
yk+1 =
⎪
⎪ 5
⎪
⎪
⎪
⎪
⎪
⎩ zk+1 = −xk − 2yk + 7
⎪
6
Como ||TJ ||∞ = max{| 21 | + | −1 −2 −2 −1 −1 3 4 1
4 |, | 5 | + | 5 |, | 6 | + | 3 |} = max{ 4 , 5 , 2 } = {0.75, 0.8, 0.5} =
0.8 < 1 , el método de Jacobi converge para cualquier condición inicial x(0) ∈ Rn dada. Ahora
explicitemos el método de Gauss–Seidel. En este caso,
⎛ ⎞ ⎛ 1 ⎞
4 0 0 4 0 0
QG-S =⎝ 2 5 0 ⎠ por lo tanto Q−1
G-S
=⎝ 1
− 10 2
10 0 ⎠
1 8 20
1 2 6 − 120 − 120 120
⎛ ⎞ ⎛ ⎞
0 − 21 − 41 5
4
−1
luego I − QG-S A = ⎝ 0 2 3 ⎠
− 10 y Q−1 b=⎝ 3 ⎠ , por lo tanto
10 G-S 10
2 17 103
0 120 120 120
⎧
⎪ −2yk − zk + 5
⎪
⎪ xk+1 =
⎪
⎪ 4
⎪
⎪
⎪
⎨
2yk − 3zk + 3
yk+1 =
⎪
⎪ 10
⎪
⎪
⎪
⎪
⎪
⎪ 2yk − 17zk + 103
⎩ zk+1 =
120
Sergio Plaza 128
Notemos que cómo ||TG-S ||∞ < ||TJ ||∞ , vemos que el método de Gauss–Seidel converge más
rápido que el método de Jacobi.
Ejercicio. Realizar las iteraciones en ambos caso, Jacobi y Gauss-Seidel para este ejemplo.
es llamada tridiagonal.
2 2
ωopt = = (3.37)
1 + 1 − ρ(TJ )2 1 + 1 − ρ(TG-S )
⎛ ⎞
a11 · · · a1n
⎜ .. .. .. ⎟
A = ⎝ . . . ⎠
an1 · · · ann
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
a11 0 · · · 0 0 0 ··· 0 0 −a12 ··· −a1n
⎜ 0 a22 · · · 0 ⎟ ⎜ −a21 0 ··· 0 ⎟ ⎜ .. .. ⎟
⎜ ⎟ ⎜ ⎟ ⎜ 0 0 . . ⎟
= ⎜ . . . .. ⎟−⎜ .. .. .. ..⎟−⎜ ⎟
⎝ .. .. .. . ⎠ ⎝ . . . .⎠ ⎝ 0 0 ··· −an−1n ⎠
0 ··· 0 ann −an1 ··· −ann−1 0 0 0 ··· 0
D CL CU
x = D−1 (CL + CU ) x + D −1
b (3.39)
Tj CJ
Richardson
Q=I
G=I −A
x(k+1) = (I − A)x(k) + b
Jacobi
Q=D
G = D−1 (CL + CU )
(D − CL )x(k+1) = CU x(k) + b
SOR
Q = ω −1 (D − ωCL )
G = (D − ωCL )−1 (ωCU + (1 − ω)D)
1
ω= α, 0 < ω < 2.
Obtenga una cota para el error relativo de la solución del sistema original con respecto a
la solución del sistema Âx = b .
Sergio Plaza 131
Ahora,
3.33333333 × 10−3
b − b̂ = .
0
a11 a12
Recordemos que si A = , entonces
a21 a22
1 a22 −a12
A−1 =
det(A) −a21 a11
⎛ 1 1 ⎞
3 4
En nuestro caso, det ⎝ ⎠= 1
240 . Luego,
1 1
4 5
⎛ 1 ⎞ ⎛ ⎞
5 − 14 1
5 − 41
−1 1 ⎝ ⎠ = 240 ⎝ ⎠= 48 −60
A = 1 .
−60 80
240 − 41 1
3 − 41 1
3
De esto, tenemos
,
,
1 1 1 1 7 9 7
||A||∞ = max + , + = max , =
3 4 4 5 12 20 12
,
7 7
||b||∞ = max , 0.45 =
12 12
7 3.3333333 × 10−3
ER (xA ) 140 7 = 0.4666666662 ,
12 12
0.33 0.25
 = .
0.25 0.20
⎛ 1 1 ⎞
0.33 0.25 3 4 −3.33333333 × 10−3 0
AE = Â − A = −⎝ ⎠= ,
0.25 0.20 1 1 0 0
4 5
1
||AE|| < .
||A−1 ||
1
||AE||∞ < = 7.14285714 × 10−3 ,
140
(b) Estime a priori la magnitud del error relativo si la matriz A se perturba quedando
finalmente ⎡ ⎤
2 −0.99 −0.98
à = ⎣ −1 1 0.99 ⎦
−1 1.02 2.99
Solución.
⎡ ⎤
2 −1 −1
A = ⎣ −1 1 1 ⎦
−1 1 3
2 −1
es simétrica. Ahora, A1 = [2] , luego det(A1 ) = 2 > 0 , A2 = y det(A2 ) =
−1 1
⎡ ⎤
2 −1 −1
1 > 0 , A3 = A = ⎣ −1 1 1 ⎦ y det(A3 ) = 2 > 0 . Por lo tanto A es positiva
−1 1 3
definida, y consecuentemente tiene descomposición de Cholesky.
Para obtener la descompsición de Cholesky de A escribamos
⎡ ⎤ ⎡ ⎤⎡ ⎤
2 −1 −1 11 0 0 11 21 31
⎣ −1 1 1 ⎦ = ⎣ 21 22 0 ⎦⎣ 0 22 32 ⎦
−1 1 3 31 32 33 0 0 33
√ √
De aquı́, 211 = 2 , de donde 11 = 2 ; 11 21 = −1 , de donde 21 = − 22 , 11 31 = −1 ;
√ √ √
31 = − 22 ; 221 + 222 = 1 , de donde 22 = 22 ; √
21 31 + 22 32 = 1 , de donde 32 = 22 ;
finalmente 231 + 232 + 233 = 3 , de donde 33 = 2 . Por lo tanto,
⎡ ⎤ ⎡ √ ⎤⎡ √ √ √ ⎤
2 −1 −1 2 0 0 2 −√ 22 −√ 22
⎣ −1 1 ⎦ ⎢ √2 √
2 ⎥⎢ ⎥
1 = ⎣ − √2 0 ⎦⎣ 0 2 2 ⎦
√2 √ 2 √2
−1 1 3 − 22 2
2
2 0 0 2
El sistema Ly = b ⎡ √ ⎤⎡ ⎤ ⎡ ⎤
2 0 0 α 1
⎢ √2 √
⎥
−
⎣ √2 2
0 ⎦⎣ β ⎦ = ⎣ 1 ⎦
√2 √
− 22 2
2
2 γ 2
√ √ √ √
De aquı́ 2 α = 1 , de donde α = 22 ; − 22 α + 22 β = 1 , reemplazando y despejando
√ √ √ √
nos da que β = 32 2 ; finalmente − 22 α + 22 β + 2γ = 2 , reemplazando y despejando
√
nos da que γ = 22 . Debemos resolver ahora el sistema LT x = y , es decir,
⎡ √ √ √ ⎤⎡
⎤ ⎡ √ ⎤
2
2 −√ 22 −√ 22 x 2
√
⎢ 2 2 ⎥⎣ y ⎦ = ⎢ 3 2 ⎥
⎣ 0 ⎦ ⎣ ⎦
2 √2 √2
2
0 0 2 z
2
1 5
de donde z = 2 , y= 2 , x = 2.
de donde
||xA − xT ||
ER (xA ) = ||I − A−1 Ã|| .
||xA ||
Para simplificar los cálculos usamos la norma subordinada || ||∞ . Ahora, tenemos
⎡ ⎤
1 1 0
⎢ 5 −1 ⎥
⎢ 1 ⎥
A−1 = ⎢
⎢ 2 2 ⎥
⎥
⎣ −1 1 ⎦
0
2 2
⎡ ⎤
2 −0.99 −0.98
à = ⎣ −1 1 0.99 ⎦
−1 1.02 2.99
luego,
⎡ ⎤
1 0.01 0.01
A−1 Ã = ⎣ 0 1.0 0 ⎦
0 0.01 1.0
Además, como
⎡ ⎤
1 0 0
I=⎣ 0 1 0 ⎦
0 0 1
Sergio Plaza 135
se tiene que
⎡ ⎤
0 −0.01 −0.01
I − A−1 Ã = ⎣ 0 0 0 ⎦
0 −0.01 0
||xA −xT ||∞
luego, ||I−A−1 Ã||∞ = max{0.02, 0, 0.01} = 0.02 , de donde ||xA ||∞ ||I−A−1 Ã||∞ =
0.02 .
Otra solución. Escribimos à de la forma à = A(I + E) . Entonces se tiene las fórmulas
1.
||xT − xA || ||E||
ER (xA ) =
||xT || 1 − ||E||
si ||E|| < 1 .
2.
||xT − xA || k(A) ||AE||
ER (xA ) =
||xT || 1 − k(A) ||A|| ||A||
||AE||
1
si ||AE|| < ||A−1 || .
Por simplicidad de los cálculos, usaremos la norma subordinada || ||∞ . Luego, ||E||∞ =
0.02 < 1 , por lo tanto, reemplazando nos queda,
Ahora usamos la segunda de las fórmulas. Tenemos que calcular k(A) = ||A|| ||A−1 || .
Sabemos que
⎡ ⎤
2 −1 −1
A = ⎣ −1 1 1 ⎦ luego ||A||∞ = 5
−1 1 3
y
⎡ ⎤
1 1 0
⎢ 5 −1 ⎥
⎢ 1 ⎥
A −1
=⎢
⎢ 2 2 ⎥
⎥ luego ||A−1 ||∞ = 4 ,
⎣ −1 1 ⎦
0
2 2
Sergio Plaza 136
de donde k∞ (A) = 5 × 4 = 20 . Para aplicar la fórmula debemos verificar que ||AE||∞ <
1
||A−1 ||∞ . Tenemos que
⎡ ⎤
0 0.01 0.01
AE = ⎣ 0 0.005 0.01 ⎦
0 0.005 0
1 1
luego, ||AE||∞ = 0.02 y ||A−1 ||∞ = 4 , de aquı́ se tiene que ||A−1 ||∞ = 4 = 0.25 y
1
es claro entonces que se satisface la condición ||AE||∞ < ||A−1 ||∞ . Reemplazando los
valores obtenidos, nos queda
esto es,
||xT − xA ||∞
0.08695652...
||xT ||∞
⎛ ⎞ ⎛ ⎞
1 −1 −1 −1 5.00
⎜ 0 1 −1 −1 ⎟ ⎜ 1.02 ⎟
A=⎜
⎝ 0
⎟ y b=⎜ ⎟
0 1 −1 ⎠ ⎝ 1.04 ⎠
0 0 0 1 1.10
(a) Calcule una solución aproximada xA del sistema Ax = b , primero aproximando cada
entrada del vector b al entero más próximo, obteniendo un vector b̃ y luego resolviendo
el sistema Ax = b̃ .
(b) Calcule ||r||∞ y k∞ (A) , donde r es el vector residual, es decir r = b − AxA y k∞ (A)
el número de condicionamiento de la matriz A.
(c) Estime una cota para el error relativo de la solución aproximada, respecto a la solución
exacta (no calcule esta última explı́citamente).
Solución.
⎛ ⎞⎛ ⎞ ⎛⎞
1 −1 −1 −1 x 5
⎜ 0 1 −1 −1 ⎟ ⎜ y ⎟ ⎜ 1 ⎟
⎜ ⎟⎜ ⎟=⎜ ⎟
⎝ 0 0 1 −1 ⎠ ⎝ z ⎠ ⎝ 1 ⎠
0 0 0 1 w 1
⎛ ⎞ ⎛ ⎞⎛ ⎞
5.00 1 −1 −1 −1 12
⎜ 1.02 ⎟ ⎜ 0 1 −1 −1 ⎟ ⎜ 4 ⎟
r = b − AxA ⎜ ⎟ ⎜ ⎟⎜ ⎟
= ⎝ 1.04 ⎠ − ⎝ 0 0 1 −1 ⎠ ⎝ 2 ⎠
1.10 0 0 0 1 1
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
5.00 5 0
⎜ 1.02 ⎟ ⎜ 1 ⎟ ⎜ 0.02 ⎟
⎜ ⎟ ⎜ ⎟=⎜ ⎟
= ⎝ 1.04 ⎠ − ⎝ 1 ⎠ ⎝ 0.04 ⎠
1.10 1 0.10
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 −1 −1 −1 a11 a12 a13 a14 1 0 0 0
⎜ 0 1 −1 −1 ⎟ ⎜ a21 a22 a23 a24 ⎟ ⎜ 0 1 0 0 ⎟
⎜ ⎟⎜ ⎟=⎜ ⎟
⎝ 0 0 1 −1 ⎠ ⎝ a31 a32 a33 a34 ⎠ ⎝ 0 0 1 0 ⎠
0 0 0 1 a41 a42 a43 a44 0 0 0 1
de donde
⎛ ⎞
1 1 2 4
⎜ 0 1 1 2 ⎟
A−1 =⎜
⎝ 0
⎟
0 1 1 ⎠
0 0 0 1
Luego, ||A−1 ||∞ = 8 . Tenemos que ||A||∞ = 4 , luego k∞ (A) = ||A||∞ ||A−1 ||∞ = 4×8 =
32 .
Problema 3.4 Encuentre una descomposición del tipo LU para la matriz A siguiente
⎛ ⎞
4 3 2 1
⎜ 3 4 3 2 ⎟
A=⎜
⎝ 2
⎟
3 4 3 ⎠
1 2 3 4
⎛ ⎞ ⎛ ⎞
2 −3 8 1 1
⎜ 4 0 1 −10 ⎟ ⎜ 1 ⎟
A=⎜
⎝ 16 4 −2
⎟ y b=⎜
⎠ ⎝
⎟
1 1 ⎠
0 7 −1 5 1
⎛ ⎞ ⎛ ⎞
2 −3 8 1 1
⎜ 4 0 1 −10 ⎟ ⎜ 1 ⎟
A=⎜
⎝ 16 4 −2
⎟ y b=⎜
⎠ ⎝
⎟.
1 1 ⎠
0 7 −1 5 1
Escribiendo la matrix ampliada del sistema, nos queda
⎛ ⎞
2 −3 8 1 1
⎜ 4 0 1 −10 1 ⎟
A=⎜
⎝ 16 4 −2
⎟,
1 1 ⎠
0 7 −1 5 1
de donde
⎛ ⎞ ⎛ ⎞
8 1
⎜ 10 ⎟ ⎜ 2 ⎟
s=⎜ ⎟ ⎜
⎝ 16 ⎠ y P = ⎝ 3
⎟.
⎠
7 4
Sergio Plaza 139
Luego
,
2 4 16
m1 = max , , , 0 = 1 = m31
8 10 16
por lo tanto debemos intercambiar la fila 1 con la fila 3. Realizando este intercambio de filas y
la eliminación gaussiana, nos queda
⎛ ⎞ ⎛ ⎞
16 4 −2 1 1 F2 − 14 F1 16 4 −2 1 1
⎜ 4 0 1 −10 1 ⎟ → ⎜ 0 −1 3/2 −41/4 3/4 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 2 −3 8 1 1 ⎠ ⎝ 0 −7/2 33/4 7/8 7/8 ⎠
0 7 −1 5 1 F3 − 18 F1 0 7 −1 5 1
de donde ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 16 3
⎜ 1/4 ⎟ ⎜ 10 ⎟ ⎜ 2 ⎟
L1 = ⎜ ⎟
⎝ 1/8 ⎠ , s1 = ⎜ ⎟ ⎜
⎝ 8 ⎠ , P1 = ⎝ 1
⎟
⎠
0 7 4
⎛ ⎞ ⎛ ⎞
16 4 −2 1 1 F3 − −1
2 F2 16 4 −2 1 1
⎜ 0 7 −1 5 1 ⎟ → ⎜ 0 7 −1 5 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 −7/2 33/4 7/8 7/8 ⎠ ⎝ 0 0 31/4 27/8 11/8 ⎠
0 −1 3/2 −41/4 3/4 F4 − −1
7 F2 0 0 19/14 −227/28 25/28
luego,
⎛ ⎞ ⎛ ⎞ ⎞ ⎛ ⎛ ⎞
1 0 3 16
⎜ 0 ⎟⎟ ⎜ ⎟ ⎜ 4 ⎟ ⎜ 7 ⎟
L11 = ⎜ ⎜ 1 ⎟ , P2 = ⎜ ⎟ , S2 = ⎜ ⎟
⎝ 1/8 ⎠ , L2 = ⎝ −1/2 ⎠ ⎝ 1 ⎠ ⎝ 8 ⎠
1/4 −1/7 2 10
⎛ ⎞ ⎛ ⎞
16 4 −2 1 16 4 −2 1 1
⎜ 0 7 −1 5 1 ⎟ → ⎜ 0 7 −1 5 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 31/4 27/8 11/8 ⎠ ⎝ 0 0 31/4 27/8 11/8 ⎠
38
0 0 19/14 −227/28 25/8 F4 − 217 F3 0 0 0 −4395/434 283/434
Sergio Plaza 140
luego,
⎛ ⎞
0
⎜ 0 ⎟
L3 = ⎜
⎝
⎟
⎠
1
38/217
Por lo tanto
⎛ ⎞⎛ ⎞
1 0 0 0 16 4 −2 1
⎜ 0 1 0 0 ⎟ ⎜ 0 7 −1 5 ⎟
P A = LU = ⎜
⎝ 1/8 −1/2
⎟⎜ ⎟ (3.41)
1 0 ⎠⎝ 0 0 31/4 27/8 ⎠
1/4 −1/7 38/217 1 0 0 0 −4395/434
donde
⎛ ⎞
0 0 1 0
⎜ 0 0 0 1 ⎟
P =⎜
⎝ 1
⎟.
0 0 0 ⎠
0 1 0 0
Por lo tanto
⎛ ⎞
16 4 −2 1
⎜ 0 7 −1 5 ⎟
PA = ⎜
⎝ 2 −3 8
⎟
1 ⎠
4 0 1 −10
Ahora, como
⎛ ⎞
16 4 −2 1
⎜ 0 7 −1 5 ⎟
B = PA = ⎜
⎝ 2 −3 8
⎟
1 ⎠
4 0 1 −10
tenemos que la matriz B es diagonal dominante, por lo tanto el método de Jacobi converge.
Por otra parte, la matriz de Jacobi es dada por
Sergio Plaza 141
J = I − Q−1 B
⎛ ⎞⎛ ⎞
1/16 0 0 0 16 4 −2 1
⎜ 0 1/7 0 0 ⎟⎜ 0 7 −1 5 ⎟
= I4 − ⎜
⎝ 0
⎟⎜
⎠⎝
⎟
0 1/8 0 2 −3 8 1 ⎠
0 0 0 −1/10 4 0 1 −10
⎛ ⎞
0 −1/4 1/8 −1/16
⎜ 0 0 1/7 −5/7 ⎟
= ⎜ ⎟
⎝ −1/4 3/8 0 −1/8 ⎠
2/5 0 1/10 0
⎛ ⎞
−λ −1/4 1/8 −1/16
⎜ 0 −λ 1/7 −5/7 ⎟
det(J − λI4 ) = det ⎜ ⎟ = λ4 + 17 λ2 − 219 λ + 33 (3.43)
⎝ −1/4 3/8 −λ −1/8 ⎠ 1120 4480 2240
2/5 0 1/10 −λ
Por lo tanto, se tiene que el radio espectral es ρ = 0.4244686967 < 1 y el método de Jacobi
es convergente.
Realizando las iteraciones, obtenemos la siguinete tabla
n xn yn zn wn E
0 0.000041875
1 0.037658125 0.2182 0.205445 -0.064375 0.00001725
2 0.0376540625 0.218188571428 0.20545734375 -0.064392640625 0.000014084822
3 0.0376595407368 0.21820265625 0.20545622991 -0.064392640625 0.3961078E-5
4 0.0376559047154 0.218202776148 0.205460190988 -0.0643905607143
2. Resolver An x = bn en forma exacta. Denote por x̄n la solución exacta y cálcule el error
relativo de la aproximación x̃ = (1, 0)T .
3. Lo razonablemente esperado es que x̄n converja a x̃ cuando n tiende a infinito. Para este
ejemplo, ¿ se tiene dicha afirmación?. Calcule K∞ (An ) y explique el resultado obtenido.
rn = An x̃ − bn .
Tenemos
1 2 1 1
rn = −
2 4 + n12 0 2 − n12
1 1 0
= − =
2 2 − n12 1
n2
1 2 x 1
=
2 4 + n12 y 2 − n12
x + 2y = 1
1 1
2x + 4 + 2 y = 2− .
n n2
1 1
2 − 4y + 4y + 2
y = 2− 2 ,
n n
1 1
es decir, 2 y = − 2 , de donde y = −1 , por lo tanto x = 3 . Note que la solución es
n n
exactamente la misma para cada n ∈ N , es decir, la solución no depende de n ∈ N .
Por lo tanto la solución dada no es razonablemente confiable, pues no se aproxima en
nada a la solución exacta xT = (3, −1) del sistema An x = bn .
||xT − x̃||∞
ER (x̃) =
||xT ||∞
||(2, −1)||∞
=
||(3, −1)||∞
max{|2|, | − 1|}
=
max{|3|, | − 1|}
2
= .
3
1
1
||An ||∞ = max{|1| + |2|, |2| +
4 + 2
} = 6 + 2
n n
1 1
Ahora, det(An ) = 4 + − 4 = 2 . Luego
n2 n
⎛ 1 ⎞
4+ −2
1 ⎜ n2 ⎟
A−1
n = 1 ⎝ ⎠
n2
−2 1
⎛ 1 ⎞
4+ −2
⎜ n2 ⎟
= n2 ⎝ ⎠
−2 1
⎛ ⎞
4n2 + 1 −2n2
= ⎝ ⎠
2 2
−2n n
y ||A−1 2 2 2 2 2 2
n ||∞ = max{|14n + 1| + | − 2n | + |n |} = max{6n + 1, 3n } = 6n + 1 . Por lo
tanto
1
k∞ (An ) = 6 + 2 (6n2 + 1)
n
1
= 36n2 + 6 + 6 +
n2
1
= 36n2 + 12 + −−−→ ∞,
n→∞
n2
Sergio Plaza 144
lo cual significa que la matriz An está muy mal condicionada para valores grandes de n (es
numéricamente no invertible para n grande), lo cual explica la mala aproximación x̃ de xn para
n grande.
Problema 3.2 Dado un método iterativo para resolver un sistema de ecuaciones lineales
x(k+1) = Bx(k) + c ,
Si det(B) = 0 ¿Puede el método propuesto ser convergente?
Problema 3.3 Si un método iterativo de punto fijo xn+1 = Axn , donde A ∈ M(n × n, R)
tiene un punto fijo x̄ = 0 . Pruebe que ||A|| 1 para cualquier norma ssubordinada en
M(n × n, R) .
(a) Pruebe que el método propuesto resulta convergente cuando se aplica a las matriz A y
al vector b siguientes
⎛ ⎞ ⎛ ⎞
8 2 −3 −20
A = ⎝ −3 9 4 ⎠ y b = ⎝ 62 ⎠ .
3 −1 7 0
⎛ ⎞−1 ⎛ ⎞
8 2 0 3/26 −1/39 0
Indicación: Use que ⎝ −3 9 0 ⎠ = ⎝ 1/26 4/39 0 ⎠.
0 0 7 0 0 1/7
Sergio Plaza 145
(b) Considere el vector x(0) = (0 0 0)T . Encuentre el número mı́nimo de iteraciones necesarias
k ∈ N , de modo de tener una precisión ||x(k) − x||∞ 10−4 .
(c) Compare el método anterior con el método de Jacobi en cuanto a velocidad de conver-
gencia. Justifique.
Problema 3.5 Encuentre la inversa A−1 de la matriz A , las normas ||A||1 , ||A−1 ||1 , ||A||2 ,
||A−1 ||2 , ||A||∞ , ||A−1 ||∞ y los números de condición κ1 (A) , κ2 (A) y κ∞ (A) si
⎛ ⎞
0 0 1
1. A = ⎝ 0 1 0 ⎠
1 1 1
⎛ ⎞
3 0 0
2. A = ⎝ 0 2 0 ⎠
0 0 1
⎛ ⎞
−2 −1 2 1
⎜ 1 2 1 −2 ⎟
3. A = ⎜
⎝ 2 −1 2
⎟
1 ⎠
0 2 0 1
Problema 3.6 Sean A, B ∈ M(n×n, R) , matrices invertibles. Pruebe que κ(AB) κ(A)κ(B) ,
donde el número de condición es calculado usando cualquier norma subordinada en M(n×n, R) .
√
1. Probar que limn→∞ B n = 0 si y sólo si |b| < 2/2 .
4. Resolver el sistema usando aritmética decimal con 4 dı́gitos y redondeo, y sin pivoteo.
6. Resolver el sistema usando aritmética decimal con 4 dı́gitos y redondeo, y con pivoteo.
7. ¿cuál es su conclusión?
2. Describir el proceso de eliminación gaussiana sin pivoteo para resolver un sistema con
matriz tridiagonal.
3. Suponiendo que tenemos una matriz tridiagonal no singular. Explicitar los algoritmos
iterativos de Richardson, Jacobi, y Gauss–Seidel.
⎛ ⎞⎛ ⎞ ⎛ ⎞
0 1 0 x 8
⎝ 0 2 1 ⎠⎝ y ⎠ = ⎝ 7 ⎠ (3.46)
2 3 1 z −5
Sergio Plaza 147
⎛ ⎞⎛ ⎞ ⎛ ⎞
3 1 1 x 5
⎝ 1 3 −1 ⎠ ⎝ y ⎠ = ⎝ 3 ⎠ (3.47)
3 1 −5 z −1
2. Caso algunos de los métodos anteriores sea convergente, encontrar la solución del sis-
tema, con precisión ε = 10−3 y usando como criterio de parada ||(xn+1 , yn+1 , zn+1 ) −
(xn , yn , zn )||∞ ε , comenzando con (x0 , y0 , z0 ) = (0, 0, 0) .
1. Resuelva el sistema usando eliminación gaussiana sin pivoteo y con aritmética de redondeo
a 4 dı́gitos.
2. Resuelva el sistema usando eliminación gaussiana con pivoteo y con aritmética de redondeo
a 4 dı́gitos.
4. Calcule el número de condición para la matriz en el sistema inicial y para la matriz del
sistema despues de hacer pivoteo Cuál es su conclusión?
y h ∈ Rn un vector columna.
Diseñe un algoritmo en pseudo lenguaje basado en el método de eliminación gaussiana, sin
elección de pivote, que utilice el mı́nimo número de localizaciones de memoria, realice el mı́nimo
número de operaciones (es decir, que obvı́e los elementos nulos de la matriz A (sin hacer ceros
donde ya existen)) para resolver el sistema Ax = h .
Problema 3.16 Resuelva mediante el método de eliminación gaussiana con aritmética exacta
el sistema
5x1 − x2 = 4
−x1 + 5x2 − x3 = −2
− x2 + 5x3 = 1
3. Analice la convergencia del método de Jacobi y del método de Gauss–Seidel. Sin iterar.
1. Resuelva el sistema usando eliminación gaussiana, con o sin pivoteo, con aritmética deci-
mal de redondeo a 3 dı́gitos. (el redondeo debe hacerse en cada operación).
3. En este caso particular ¿Cuál de los dos métodos es más conveniente? Justifique.
1. Trabajando con aritmética decimal de tres dı́gitos y redondeo ¿Es posible encontrar una
descomposición LU para A ?
2. Considere ahora aritmética decimal de cinco dı́gitos y redondeo. Encuentre una des-
composición LU para A , y compare los números de condición de A y de LU ¿Cuál es
su conclusión?
3. Use un método iterativo convergente para encontrar la solución del sistema con una pre-
cisión de ε = 10−3 , con criterio de parada ||(xn , yn , zn ) − (xT , yT , zT )||∞ ε , donde
(xT , yT , zT ) es la solución exacta del sistema.
no tiene descomposición LU .
3. Proponga un método de punto fijo y demuestre la convergencia (sin iterar) para resolver
el sistema dado en b), y encuentre una solución aproximada con una presición de 10−3 .
donde f (x) es una función conocida, que representa una fuente de calor externa y k > 0 es
una constante que se denomina coeficiente de difusión o conductividad térmica. A esta ecuación
se le agregan las condiciones de borde:
Una de las técnicas más usadas para resolver el problema 3.48-3.49 es el método de diferencias
finitas. En este método, el intervalo [0, L] se divide en N + 1 intervalos de largo h = NL+1 y
la solución es buscada en los puntos internos definidos por esta división, es decir, en los puntos
xn = nh , con n = 1, . . . , N (los valores de la temperatura en los nodos del borde x0 = 0 y
xN +1 = L son conocidos). En este método, las derivadas de primer orden se aproximan por el
cuociente de diferencias finitas
f (x + h) − f (x)
f (x) ≈ ,
h
mientras que las derivadas de segundo orden, se aproximan por
f (x − h) − 2f (x) + f (x + h)
f (x) ≈ . (3.50)
h2
Denotemos por Tn los valores aproximados de la evaluaciones de la temperatura exacta en los
puntos de la malla, T (xn ) . Reemplazando −T (x) en la ecuación 3.48 por la expresión 3.50,
y evaluando la ecuación en los nodos internos de la malla {x1 , . . . , xN } , se obtiene el siguiente
sistema de ecuaciones lineales:
0 ··· 0 −1 2 T N f (xN ) TL
se pide resolver numéricamente el sistema 3.54, usando los métodos iterativos de Jacobi, Gauss-
Seidel y SOR. Para el método SOR tome distintos valores del parámetro de aceleración ω ∈
(1, 2) . Calcule además el parámetro de aceleración óptimo ω ∗ .
Para ello, siga los siguientes pasos:
2. Implemente cada uno de los 3 métodos antes mencionados y haga un estudio comparativo
de estos para distintos valores de N . Por ejemplo, N = 50, 100, 200, 1000. Especifique
el criterio de parada utilizado y el número de iteraciones para cada uno de los métodos y
para los distintos valores de N . Presente sus resultados en una tabla.
3. Finalmente, determine la solución analı́tica del problema 3.48-3.49, con los parámetros
dados por 3.55 y grafique el error absoluto en la solución, para cada uno de los métodos
y para los distintos valores de N . A partir de estos gráficos, comente cual de los tres
métodos aproxima mejor a la solución .
(a) Demuestre que A tiene descomposición de Cholesky y usela para calcular A−1 .
Problema 3.29
Problema 3.30
Problema 3.31
Capı́tulo 4
Interpolación
Supongamos que tenemos una función f : [a, b] −→ R y queremos aproximarla por funciones
más simples. Más general, nos son dados los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) donde los
puntos xi ( i = 0, . . . , n ) son distintos y estan sobre el eje x , los cuales suponemos ordenados
por x0 < x1 < · · · < xn , y los puntos yi (i = 0, 1, . . . , n) son tales que yi = f (xi ) para alguna
función desconocida f (x) con la cual deseamos hacer algunos cálculos. Podemos aproximar
f (x) por funciones simples, y hacer los cálculos con estas aproximaciones, por ejemplo, cálculo
de integrales (áreas) y de derivadas.
Dados los puntos (x0 , y0 ) y (x1 , y1 ) , con x0 < x1 , tales que y0 = f (x0 ) y x1 = f (x1 ) ,
podemos aproximar f (x) en el intervalo [x0 , x1 ] por la más simple de las funciones, es decir,
afı́n . Para ello consideramos el segmento de recta que une los puntos (x0 , y0 ) y (x1 , y1 ) .
Tenemos entonces que la aproximación es dada por
x − x1 x − x0
L1 (x) = y0 + y1 . (4.1)
x0 − x1 x1 − x0
f (ξ(x))
Error = f (x) − L1 (x) = (x − x0 )(x − x1 ) , (4.2)
2!
153
Sergio Plaza 154
f (x)
• y1
L1 (x)
y0 •
• •
x0 x1
L1 (x) = a0 + a1 x . (4.3)
L1 (x0 ) = a0 + a1 x0 = y0
L1 (x1 ) = a0 + a1 x1 = y1 (4.4)
o en forma matricial
1 x0 a0 y0
=
1 x1 a1 y1
cuya solución es
1 −1
a0 = y0 + y1
x1 − x0 x1 − x0
−1 1
a1 = y0 + y1
x1 − x0 x1 − x0
Reemplazando estos valores en la expresión para L1 (x) dada en (4.3), obtenemos la fórmula
(4.1).
Si queremos aproximar f (x) en todo el intervalo [a, b] , consideramos una partición de [a, b] ,
digamos x0 = a < x1 < x2 < · · · < xn = b , y en cada subintervalo [xi , xi+1 ] tomamos una
aproximación como la anterior. Para el error total sólo basta sumar los errores cometidos en
cada aproximación. Esta es llamada aproximación lineal por trozos de f (x) .
Usando este tipo de aproximación tenemos, por ejemplo,
x1 x1
x1 − x0
f (x) ≈ L1 (x)dx = (y1 + y0 ) , (4.5)
x0 x0 2
es decir,
x1 x1
x1 − x0
f (x)dx ≈ L1 (x)dx = (f (x0 ) + f (x1 )) , (4.6)
x0 x0 2
• y1
Error
L1 (x)
• •
x0 x1
Para el error cometido en el cálculo de la integral usando esta aproximación, tenemos que
x1
f (ξ(x)) f (c) x1
(x − x0 )(x − x1 )dx = (x − x0 )(x − x1 )
x0 2! 2 x0
f (c) x3 x0 + x1 2
x1
= − x + x0 x1 x
2 3 2 x0
3
f (c) −h
= ·
2 6
3
h
= − f (c)
12
x1
h h3
f (x)dx = (f (x0 ) + f (x1 )) − f (c) . (4.7)
x0 2 12
De (4.7) tenemos una cota para el error cometido en el cálculo de la integral, dado por
x1
h
h3
f (x)dx − (f (x0 ) + f (x1 ))
En general, usando la partición a = x0 < x1 < · · · < xn = b del intervalo [a, b] , con paso
constante h = xi+1 − xi , tenemos la fórmula de los trapecios compuesta
b
h
f (x) ≈ (f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )) . (4.9)
a 2
y1
y2 f (x)
y0 yn
x0 x1 x2 xn−2 xn−1 xn
-
n
Ln (x) = f (xk )Ln,k (x) , (4.11)
k=0
donde
4
n
(x − xi )
= . (4.12)
i =0
(xk − xi )
i = k
f (n+1) (ξ(x))
Error = f (x) − Ln (x) = (x − x0 ) · · · (x − xn ) (4.13)
(n + 1)!
f (x)
y1
•
• y2
L2 (x)
y0 •
• •
x0 x1 x2
Ln (x) = a0 + a1 x + a2 x2 + · · · + an xn (4.14)
Sergio Plaza 157
o en forma matricial
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 x0 x20 ··· xn0 a0 y0
⎜ 1 x1 x21 ··· xn1 ⎟⎜ a2 ⎟ ⎜ y1 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. .. ⎟⎜ .. ⎟=⎜ .. ⎟ (4.16)
⎝ . . . . . ⎠⎝ . ⎠ ⎝ . ⎠
1 xn x2n ··· xnn an yn
el cual se resuelve usando la regla de Cramer, y se obtiene la fórmula (4.12) para los coeficientes
del polinomio de Lagrange.
Aplicando esta aproximación para el cálculo integral, tenemos
xn xn
f (x)dx ≈ Ln (x)dx
x0 x0
xn xn -
n
Ln (x)dx = f (xi )Ln,i (x)dx
x0 x0 i=0
-
n xn
= f (xi ) Ln,i (x)dx
i=0 x0
luego,
xn xn
xn 4n
f (x)dx − Ln (x)dx
=
f (n+1) (ξ(x)) (x − xi )dx
x0 x0 (n + 1)! x0
i=0
xn
4 n
1
(n+1)
f (ξ(x))
(x − xi )
dx
(n + 1)! x0
i=0
|f (n+1) (c)| xn
=
(x − xi )
dx
(n + 1)! x0
i=0
(n+1) , xn
4 n
|f (x)|
max : x ∈ [x0 , xn ]
(x − xi )
dx
(n + 1)! x0
i=0
nh
K1 · K2 ,
(n + 1)!
Sergio Plaza 158
'
( ;n
donde K1 = max
f (n+1) (x)
: x ∈ [x0 , xn ] y K2 = max {| i=0 (x − xi )| : x ∈ [x0 , xn ]} ,
esto es,
xn xn
f (x)dx − L (x)dx
nh K1 · K2 . (4.17)
n
(n + 1)!
x0 x0
x2
b
(x − x1 )(x − x2 )
x2
(x − x0 )(x − x2 )
f (x)dx = f (x0 ) dx + f (x1 ) dx
a x0 (x0 − x1 )(x0 − x2 ) x0 (x1 − x0 )(x1 − x2 )
x2 x2
(x − x0 )(x − x1 ) (x − x0 )(x − x1 )(x − x2 ) (3)
+f (x2 ) dx + f (ξ(x))dx
x0 (x2 − x 0 )(x2 − x1 ) x0 6
Una forma alternativa para obtener la regla de Simpson es la siguiente. Desarrollamos f (x)
en serie de Taylor hasta orden 4 alrededor del punto x1 en el intervalo [x0 , x2 ] . Tenemos,
x1 = x0 + h , luego
f (x1 ) f (x1 ) f (4) (ξ(x))
f (x) = f (x1 ) + f (x1 )(x − x1 ) + (x − x1 )2 + (x − x1 )3 + (x − x1 )4 ,
2 6 24
con ξ(x) ∈ [x0 , x2 ] .
Integrando, obtenemos
x2
f (x1 )
f (x)dx = f (x1 )(x2 − x0 ) + (x − x1 )2
x0 2
x2
f (x1 ) 3 f (x1 ) 4
+ (x − x1 ) + (x − x1 )
6 24 x0
x2
1
+ f (4) (ξ(x))(x − x1 )4 dx .
24 x0
Sergio Plaza 159
1 x2
(4) 4 f (4) (c) x2
f (ξ(x))(x − x1 ) dx = (x − x1 )4 dx
24 x0 24 x0
x2
1 (4)
= f (c)(x − x1 )5
, c ∈]x0 , x2 [ .
120 x0
Luego
x2
h3 f (4) (c) 5
f (x)dx = 2hf (x1 ) + f (x1 ) + h . (4.18)
x0 3 60
donde x − h < ξ2 < x < ξ1 < x + h . Sumando estas dos igualdades, obtenemos
1 (4)
f (x + h) + f (x − h) = 2f (x) + f (x)h2 + (f (ξ1 ) + f (4) (ξ2 ))h4 (4.21)
24
1 h2 (4)
f (x) = (f (x − h) − 2f (x) + f (x + h)) − (f (ξ1 ) + f (4) (ξ1 )) . (4.22)
h2 24
para algún ξ ∈ [x − h, x + h] .
Luego
1 h2 (4)
f (x) = (f (x − h) − 2f (x) + f (x + h)) − f (ξ) . (4.24)
h2 12
Sergio Plaza 160
1 h2 (4)
f (x1 ) = (f (x1 − h) − 2f (x1 ) + f (x1 + h)) − f (ξ) . (4.25)
h2 12
Como x1 − h = x0 y x1 + h = x2 , obtenemos que
1 h2 (4)
f (x1 ) = (f (x0 ) − 2f (x1 ) + f (x2 )) − f (ξ(x))
h2 12
y (4.18) se transforma en
x2
h3 1 h2 (4) f (4) (c) 5
f (x)dx = 2hf (x1 ) + (f (x0 ) − 2f (x1 ) + f (x2 )) − f (ξ) + h
x0 3 h2 12 60
h h5 f (4) (c) 5
= 2hf (x1 ) + (f (x0 ) − 2f (x1 ) + f (x2 )) − f (4) (ξ) + h
3 36 60
h h5 1 (4) 1
= (f (x0 ) + 4f (x1 ) + f (x2 )) − f (ξ) − f (4) (c)
3 12 3 5
h h5 f (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) − ·2· (θ)
3 12 15
h h5 (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) − f (θ) .
3 90
En resumen,
Regla de Simpson simple . Si x1 = x0 + h y x2 = x1 + h , entonces
x2
h h5
f (x)dx = (f (x0 ) + 4f (x1 ) + f (x2 )) − f (4) (θ) , (4.26)
x0 3 90
de donde
x2
h
h5
f (x)dx − (f (x0 ) + 4f (x1 ) + f (x2 ))
x2n x2 x4 x2n
f (x)dx = f (x)dx + f (x)dx + · · · + f (x)dx
x0 x0 x2 x2n−2
h
= (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + · · · + 2f (x2n−2 ) + 4f (x2n−1 ) + f (x2n )) ,
3
esto es,
x2n
h
f (x)dx = (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + · · · + 2f (x2n−2 ) + 4f (x2n−1 ) + f (x2n ))
x0 3
(4.28)
Sergio Plaza 161
esta es fórmula de integración numérica es llamada regla de Simpson compuesta. El error total
es obtenido sumando los errores en cada parcela del cálculo. En el Capı́tulo 8 analizarenos este
error.
La regla de los trapecios (simple y compuesta) y la regla de Simpson (simple y compuesta)
forma parte de una serie de fórmulas para el cálculo aproximado de integrales, llamadas fórmulas
de Newton–Cote, que serán estudiadas en el Capı́tulo 8.
Ln (x0 ) = f (x0 ) = a0 ,
de donde
f (x1 ) − f (x0 )
a1 = .
x1 − x0
Ası́, si tenemos definidas f [xi , xi+1 , . . . , xi+k−1 ] y f [xi+1 , . . . , xi+k ] , podemos definir la
k–ésima diferencia dividida relativa a xi , xi+1 , . . . , xi+k por
-
n
Ln (x) = f [x0 ] + f [x0 , . . . , xk ](x − x0 ) · · · (x − xk−1 ) . (4.33)
k=1
La siguiente tabla muestra como se van generando las sucesivas diferencias divididas
x0 f [x0 ]
f [x1 ] − f [x0 ]
f [x0 , x1 ] =
x1 − x0
f [x1 , x2 ] − f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ] =
x2 − x0
f [x2 ] − f [x1 ]
f [x1 , x2 ] =
x2 − x1
x2 f [x2 ]
..
.
Sea f : R −→ R una función, la cual suponemos derivable tantas veces cuanto sea necesario.
Dados x0 y x1 , como vimos, el cuociente
f (x1 ) − f (x0 )
f [x0 , x1 ] =
x1 − x0
es la diferencia dividida de primer orden de f (x) . La diferencia dividida de primer orden
f [x0 , x1 ] es la pendiente de la linea secante al gráfico de y = f (x) uniendo los puntos
(x0 , f (x0 )) y (x1 , f (x1 )) .
(x1, f(x1) )
(x0, f (x0) )
y = f(x)
Sergio Plaza 163
sen(1.3) − sen(1.2)
f [x0 , x1 ] = = 0.3151909944 .
1.3 − 1.2
Las diferencias divididas de primer orden pueden ser pensadas como siendo un análogo
numérico de la derivada de f (x) .
Si f (x) es una función diferenciable y si x0 y x1 son próximos, entonces
x0 + x1
f ≈ f [x0 , x1 ] , (4.34)
2
esto es, la pendiente de la linea secante uniendo los puntos (x0 , f (x0 )) y (x1 , f (x1 )) sobre
el gráfico de y = f (x) es aproximadamente igual a la pendiente de la linea tangente en el
punto medio del intervalo desde x0 a x1 . Además, desde la definición de f [x0 , x1 ] , haciendo
x1 → x0 , obtenemos
Como vimos las diferencias divididas de orden superior son definidas recursivamente en
término de las diferencias divididas de orden menor.
Dados x0 , x1 y x2 distintos (usualmente tomados en orden creciente), la diferencia dividida
de segundo orden de f (x) en esos tres puntos es
f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1 , x2 ] = .
x2 − x0
f [x1 , x2 , x3 ] − f [x0 , x1 , x2 ]
f [x0 , x1 , x2 , x3 ] = .
x3 − x0
Observación. Existe una relación entre una diferencia dividida de orden n y la derivada de
orden n de la función.
sen(1.21) − sen(1.2)
f [x0 , x1 ] = = 0.315190994 .
1.21 − 1.2
Sergio Plaza 164
sen(1.22) − sen(1.21)
f [x1 , x2 ] = = 0.34833547,
1.22 − 1.21
f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1 , x2 ] = = −0.46780450.
1.22 − 1.2
Si miramos f [x0 , x1 ] y f [x1 , x2 ] como siendo una aproximación numérica para la derivada
de f (x) en los puntos medios x0 +x2
1
y x1 +x
2
2
, respectivamente, entonces
f [x1 , x2 ] − f [x0 , x1 ]
= 2 f [x0 , x1 , x2 ]
( x1 +x
2
2
) − ( x0 +x
2
1
)
puede ser pensado como siendo una aproximación numérica para f (x1 ) , pues x1 es el punto
medio del intervalo desde x0 a x2 . Luego la diferencia dividida de segundo orden f [x0 , x1 , x2 ]
es una aproximación numérica para f (x 2
1)
, en otras palabras,
f (x1 ) ≈ 2f [x0 , x1 , x2 ] (4.36)
Como f (x) = −sen(x) , tenemos f (x 2
1)
= f (1.21
2
)
= −0.46780800 , la cual puede ser
comparada con el valor f [x0 , x1 , x2 ] = −0.46780450 .
f (x1 ) − f (x0 )
f [x0 , x1 ] =
x1 − x0
f (x2 ) − f (x1 )
f [x1 , x2 ] =
x2 − x1
..
.
f (xn ) − f (xn−1 )
f [xn−1 , xn ] = .
xn − xn−1
f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1 , x2 ] =
x2 − x0
f [x2 , x3 ] − f [x1 , x2 ]
f [x1 , x2 , x3 ] =
x3 − x1
..
.
f [xn−1 , xn ] − f [xn−2 , xn−1 ]
f [xn−2 , xn−1 , xn ] = .
xn − xn−2
Sergio Plaza 165
Note que el número de diferencias divididas decrece a cada etapa hasta que llegamos a la
única diferencia dividida de orden n
y1 − y0 y2 − y1 y3 − y2 y4 − y3
, , ,
x1 − x0 x2 − x1 x3 − x2 x4 − x3
y2 − y1 y1 − y0 y3 − y2 y2 − y1 y4 − y3 y3 − y2
− − −
x2 − x1 x1 − x0 x3 − x2 x2 − x1 x4 − x3 x3 − x2
, ,
x2 − x0 x3 − x1 x4 − x2
y3 − y2 y2 − y1 y2 − y1 y1 − y0
− −
x3 − x2 x2 − x1 x2 − x1 x1 − x0
−
x3 − x1 x2 − x0
,
x3 − x0
y4 − y3 y3 − y2 y3 − y2 y2 − y1
− −
x4 − x3 x3 − x2 x3 − x2 x2 − x1
−
x4 − x2 x3 − x1
x4 − x1
y4 − y3 y3 − y2 y3 − y2 y2 − y1 y3 − y2 y2 − y1 y2 − y1 y1 − y0
− − − −
x4 − x3 x3 − x2 x3 − x2 x2 − x1 x3 − x2 x2 − x1 x2 − x1 x1 − x0
− −
x4 − x2 x3 − x1 x3 − x1 x2 − x0
−
x4 − x1 x3 − x0
x4 − x0
(f (x1 ) − f (x0 )) (x − x0 )
p(x) = f (x0 ) + ,
x1 − x0
esta es la ecuación de la linea recta pasando a través de los puntos (x0 , f (x0 )) y (x1 , f (x1 )) .
para i = 0, 1, . . . , n .
Teorema 4.1 Dados n + 1 puntos distintos en el intervalo [a, b] , digamos a x0 < x1 <
· · · < xn b y f : [a, b] −→ R una función 2n + 2 veces derivable con f (2n+2) (x) continua,
sean yi = f (xi ) , i = 0, 1, . . . , n . Entonces existe un único polinomio de grado a lo más 2n + 1 ,
H2n+1 (x) , tal que
H2n+1 (xi ) = f (xi )
(4.38)
H2n+1 (xi ) = f (xi )
para i = 0, 1, . . . , n donde H2n+1 (x) es dado por
-
n -
n
H2n+1 (x) = f (xj )Hn,j (x) + f (xj )Ĥn,j (x) (4.39)
j=0 j=0
con
Hn,j (x) = 1 − 2(x − xj )Ln,j (xj ) (Ln,j (x))2 (4.40)
donde
(x − x0 )2 · · · (x − x1 )2 · · · (x − xn )2 (2n+2)
f (x) − H2n+1 (x) = f (ξ(x)) , (4.42)
(2n + 2)!
Integrando, tenemos
xn xn xn
(x − x0 )2 · · · (x − xn )2 (2n+2)
f (x)dx = H2n+1 (x) + f (ξ(x))dx (4.43)
x0 x0 x0 (2n + 2)!
xn xn
f (x) ≈ H2n+1 (x) . (4.44)
x0 x0
Problema 4.1 Encontrar el polinomio de interpolación para los puntos (1, 5) , (2, 3) , (4, 2) ,
(5, 4) , (6, 3) .
Solución. Tenenos
(x − 1) (x − 2) (x − 1) (x − 2) (x − 4) 2 (x − 1) (x − 2) (x − 4) (x − 5)
p(x ) := 7 − 2 x + + −
2 12 15
4
y
3
0 1 2 3 4 5 6 7
x
y los valores de y ,
En los 7 puntos de los nodos el valor dado por la fórmula de interpolación, esencialmente
coinciden con los valores de y dados por la función, excepto por un pequeño error. Por ejemplo,
Sergio Plaza 169
Tenemos
0.8
0.6
0.4
0.2
Podemos graficar el error absoluto para p(x) como una aproximación para sen(x) en el
intervalo [0, π2 ] .
1e–06
5e–07
–1e–06
Problema 4.3 De una función f (x) se conocen sus valores yi en los puntos xi , i = 0, 1, 2, 3, 4 .
Se desea concer un valor aproximado de f (2.5)
xi yi
x0 = 0.0 y0 = 1.90
x1 = 0.5 y1 = 2.39
x2 = 1.0 y2 = 2.71
x3 = 1.5 y3 = 2.98
x4 = 2.0 y4 = 3.20
x5 = 3.0 y5 = 3.20
x6 = 3.5 y6 = 2.98
x7 = 4.0 y7 = 2.74
(x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7,0 (x) =
(x0 − x1 ) (x0 − x2 ) (x0 − x3 ) (x0 − x4 ) (x0 − x5 ) (x0 − x6 ) (x0 − x7 )
(x − x0 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,1 (x) =
(x1 − x0 ) (x1 − x2 ) (x1 − x3 ) (x1 − x4 ) (x1 − x5 ) (x1 − x6 ) (x1 − x7 )
evaluando A1 = L7,1 (2.5) = −0.142857142857
(x − x0 ) (x − x1 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,2 (x) =
(x2 − x0 ) (x2 − x1 ) (x2 − x3 ) (x2 − x4 ) (x2 − x5 ) (x2 − x6 ) (x2 − x7 )
evaluando, tenemos A2 = L7,2 (2.5) = 0.500000000000 .
(x − x0 ) (x − x1 ) (x − x2 ) (x − x4 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,3 (x) =
(x3 − x0 ) (x3 − x1 ) (x3 − x2 ) (x3 − x4 ) (x3 − x5 ) (x3 − x6 ) (x3 − x7 )
(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x5 ) (x − x6 ) (x − x7 )
L7 ,4 (x) =
(x4 − x0 ) (x4 − x1 ) (x4 − x2 ) (x4 − x3 ) (x4 − x5 ) (x4 − x6 ) (x4 − x7 )
(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x6 ) (x − x7 )
L7 ,5 (x) =
(x5 − x0 ) (x5 − x1 ) (x5 − x2 ) (x5 − x3 ) (x5 − x4 ) (x5 − x6 ) (x5 − x7 )
(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x7 )
L7 ,6 (x) =
(x6 − x0 ) (x6 − x1 ) (x6 − x2 ) (x6 − x3 ) (x6 − x4 ) (x6 − x5 ) (x6 − x7 )
(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 ) (x − x4 ) (x − x5 ) (x − x6 )
L7 ,7 (x)
(x7 − x0 ) (x7 − x1 ) (x7 − x2 ) (x7 − x3 ) (x7 − x4 ) (x7 − x5 ) (x7 − x6 )
Otra forma, indirecta, es escribir cada uno de los polinomios coeficientes del polinomio de
Lagrange, calcular el polinomio de Lagrange en cuestión y después evaluar.
Tenemos
Luego,
por lo tanto,
L7 (2.5) = 3.29071428572 .
Sergio Plaza 173
4 4
f (x) ≈ L7 (x) = 11.5714225246 .
0 0
Usando la regla de los trapecios con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 . Definimos los nuevos valores xi e yi = f (xi ) , i = 0, . . . , 8
Tenemos, que
h
T rapf = × (y0 + 2 × y1 + 2 × y2 + 2 × y3 + 2 × y4 + 2 × y5 + 2 × y6 + 2 × y7 + y8 )
2
evaluando, obtenemos
Trap f := 11.5353571428 .
El error que hemos cometido en el cálculo comparado con el valor dado por la interpolación
de Lagrange
4
Error(T rapf ) = |T rapf − L(x)|
0
nos da
Usando la regla de Simpson con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 y hemos redefinido los nuevos valores xi e yi = f (xi ) ,
i = 0, . . . , 8 . Tenemos que
h
Simpsonf = × (y0 + 4 × y1 + 2 × y2 + 4 × y3 + 2 × y4 + 4 × y5 + 2 × y6 + 4 × y7 + y8 )
3
evaluando, obtenemos
Simpsonf = 11.5704761905 .
4
Error (Simpsonf ) = |Simpsonf − L(x)| = 0.0009463341
0
Sergio Plaza 174
3.2
2.8
2.6
2.4
2.2
0 1 2 3 4
x
0.35
0.3
0.25
0.2
0.15
0.1
0.05
–2 –1 0 1 2
x
gráfico de f en [−2, 2]
Como la función es simétrica respecto del origen, se tiene que f (−1) = f (1) = 0.3678794412 ,
f (2) = f (−2) = 0.07326255556 y f (0) = 0 .
x0 = −2.0
x1 = −1.0
x2 = 0.
x3 = 1.0
x4 = 2.0
L4 (x) = L4,0 (x) f (x0 ) + L4,1 (x) f (x1 ) + L4,2 (x) f (x2 ) + L4,3 (x) f (x3 ) + L4,4 (x) f (x4 )
Luego,
(x − x1 ) (x − x2 ) (x − x3 ) (x − x4 )
L4,0 (x) =
(x0 − x1 ) (x0 − x2 ) (x0 − x3 ) (x0 − x4 )
leugo, reemplazando nos queda
(x − x0 ) (x − x2 ) (x − x3 ) (x − x4 )
L4,1 (x) =
(x1 − x0 ) (x1 − x2 ) (x1 − x3 ) (x1 − x4 )
Como f (x2 ) = 0 , no es necesario calcular L4,2 (x) , pero de todas maneras lo hacemos;
(x − x0 ) (x − x1 ) (x − x3 ) (x − x4 )
L4,2 (x) = .
(x2 − x0 ) (x2 − x1 ) (x2 − x3 ) (x2 − x4 )
(x − x0 ) (x − x1 ) (x − x2 ) (x − x4 )
L4,3 (x) = ,
(x3 − x0 ) (x3 − x1 ) (x3 − x2 ) (x3 − x4 )
de donde
(x − x0 ) (x − x1 ) (x − x2 ) (x − x3 )
L4,4 (x) =
(x4 − x0 ) (x4 − x1 ) (x4 − x2 ) (x4 − x3 )
Luego,
2
f (x) = 0.845450112985 .
−2
Sergio Plaza 176
2 2
f (x) ≈ L4 (x) = 1.09199822279 .
−2 .−2
h=1
y0 = 0.0732625555548
y1 = 0.367879441171
y2 = 0
y3 = 0.367879441171
y4 = 0.0732625555548
luego,
Trap f = 0.809021437895
0.5
0.4
0.3
0.2
0.1
–2 –1 0 1 2
x
simpson8 = 1.08811418054
Err = 0.00388404225
simpson32 = 1.09198305075
Err = 0.00001517204
trap = 1.04463387609
Sergio Plaza 177
1
Tomando h = , obtenemos
5
390625 10 109375 8 51875 6 54525 4 3725 2
p(x) = − x + x − x + x − x +1
1768 221 136 442 221
Notemos que el polinomio interpolante oscila violentamente y no aproxima “muy bien” a la
funcion original.
1 2 2
0.6 1 1
0.4
0.5 0.5
0.2
–1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1 –1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1
x x
–1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1
x
4.8 Ejercicios
Problema 4.1 Considere la función f (x) = e−x en el intervalo [−1, 1] . Construya los poli-
2
Problema 4.2 Encuentre el polinomio de interpolación de Newton para los puntos dados a
seguir
1 1 3 5
−2, , −1, , (0, 1) , 1, , 2, .
4 2 2 4
Problema 4.5 Calcule el polinomio de interpolación de Lagrange para f (x) , si se conocen los
los siguientes datos
x 3 8 5 1 7
f (x) −459 −18864 −3105 −13 −11263
2
Problema 4.6 Considere la función f (x) = ex .
b) Exprese una cota para el error en la aproximación de Lagrange obtenida en la parte a).
(Simplifique al máximo la expresión obtenida para el error).
2. Exprese una cota para el error en la aproximación de Hermite obtenida en la parte 1).
(Simplifique al máximo la expresión obtenida para el error)
Problema 4.8 Sea f : [a, b] → R una función suficientemente derivable un número suficiente
de veces.
simétricos respecto al origen? ¿Es el polinomio de Lagrange L2n (x) simétrico respecto al
origen? Justifique su respuesta. Ilustre usando la función f (x) = e−x , con x ∈ [−, 1] .
2
b) ¿Qué puede decir de L2n,k (x) y de L2n (x) si f es antisimétrica, respecto al origen es
decir, f (−x) = −f (x) ? Justifique su respuesta. Ilustre usando la función f (x) = sen(x) ,
con x ∈ [−1, 1] .
Problema 4.9 Sea f : [0, 4] −→ R una función suficientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = −1 , f (4) = 0 , y |f (5) (x)| π32 .
2. Considere la partición −2π < −π < 0 < π < 2π , y calcule el polinomio de Lagrange
2π
para f (x) , estimando el error. Aproxime el valor de −2π f (x) usando el polinomio de
Lagrange, estimando el error.
5. Refinando la partición anterior, obtenemos una nueva partición, −2π < −3π/2 < −π <
−π/2 < 0 < π/2 < π < 3π/2 < 2π . Usando esta nueva partición repita los ejercicios 2)
y 3) anteriores.
Problema 4.12 Sea f : [0, 1] −→ R una función al menos tres veces derivable con continuidad,
que satisface f (0) = 0 , f (0) = 1 , f (0.5) = 1 , f (0.5) = 0 , f (1) = 0 y f (1) = 1 .
2. Determine una expresión para error y una buena cota para este (simplifique al máximo).
Problema 4.13 Considere una función f : [0, 4] −→ R , al menos cinco veces derivable, de la
cual se sabe que f (0) = 0 , f (1) = 1.7183 , f (2) = 6.3891 , f (3) = 19.0855 , f (4) = 53.5982 , y
tal que |f (k) (x)| ex para todo x ∈ [0, 4]
Problema 4.14 Sea f : R −→ R una función, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 0 , f (0.25) = 1 , f (0.5) = 0 , f (0.75) = −1 ,
f (1) = 0 , y |f (n) (x)| (2π)n para todo x ∈ R y todo n 1 .
(a) Usando la información dada, encuentre el polinomio de interpolación Lagrange para f (x) .
1
(b) Calcule una aproximación para f (x)dx usando el polinomio obtenido en a).
0
(c) Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en a) en el intervalo [0, 1] .
0.5
(d) Encuentre el error para la aproximación de f (x)dx por la integral del polinomio de
0
interpolación de Lagrange obtenido en a)
Problema 4.16 Sea f : [0, 4] −→ R una función suficientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = −1 , f (4) = 0 , y |f (5) (x)| π32 para todo x ∈ [0, 4] .
Sergio Plaza 181
Problema 4.17 Sea f : R −→ R una función, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 1 , f (0.25) = 0 , f (0.5) = −1 , f (0.75) = 0 ,
f (1) = 1 , y |f (n) (x)| (2π)n para todo x ∈ R y todo n 1 .
3. Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en 1) en el intervalo [0, 1] .
0.5
4. Encuentre el error para la aproximación de f (x)dx por la integral del polinomio de
0
interpolación de Lagrange obtenido en 1)
1
Problema 4.18 Considere la función f : [−1, 1] −→ R dada por f (x) = . Usando
1 + 25x2
divisiones uniformes, calcule y grafique Ln (n) , para n = 2, 3, 4, . . . , 10 para esas subdivisiones.
Grafique f (x) y Ln (x) . Compare Cuál es su conclusión?
Problema 4.19 Una función f (x) satisface f (0) = 1 , f (1) = 1 , f (2) = 2 . Calcule la
3
interpolación de Lagrange para f , y use esta para estimar f . Grafique.
2
Problema 4.20 Una función f (x) satisface f (−1) = 1, f (0) = 2 , f (2) = 1 . Encuentre
la aproximación de f mediante interpolación de Lagrange. Estime f (1) . Si es sabido que
|f (x)| , es acotada por 1.12 para x ∈ [−1, 2] . Encuentre el error que se produce al aproximar
f (1) por la interpolación de Lagrange. Grafique.
x 0 1 2 3 4 5
y 2 2 3 5 6 7
Problema 4.22 Sea f (x) = x3 . Sean x0 , x1 , x2 tres puntos distintos, con x0 < x1 < x2 .
Calcule f [x0 , x1 , x2 ] .
Problema 4.23 Para una función f (x) se conocen f [−1] = 2, f [−1, 1] = 1, f [−1, 1, 2] =
−2, f [−1, 1, 2, 4] = 2 . Escriba el polinomio de interpolación de grado a lo más 3 con nodos en
−1 , 1 , 2 , 4 . Usando ese polinomio, estime f (0) .
Sergio Plaza 182
k 0 1 2 3
xk -1 0 1 3
yk 1 0 -1 2
f [xk−1 , xk ] ? -1 -1 ?
f [xk−2 , xk−1 , xk ] ? ? ? ?
f [xk−3 , xk−2 , xk−1 , x2 ] ? ? ? ?
(a) Calcular los valores de las constantes A , B y C de modo que la fórmula Ia sea exacta
en P2 (R) (el espacio vectorial de los polinomios de grado menor o igual que 2).
(b) Usando la fórmula obtenida en la parte (a), aproxime la integral
π
exp(sin(x)) dx.
0
Problema 4.26 Se desea construir una función f : R → R tal que f (x) = 0 para x 0
y f (x) = 1 para x 1. Para x ∈ [0, 1], necesitaremos definir una función s, polinomial por
pedazos, que conecte ambas ramas de f , esto es, s(0) = 0, s(1) = 1, y para tener continuidad
de las tangentes, s (0) = 0 y s (1) = 0. Se busca entonces s : [0, 1] → R definida por dos
polinomios p, q ∈ P3 (R) de modo que
p(x) si x ∈ [0, 12 ],
s(x) =
q(x) si x ∈ ( 12 , 1],
que sea de clase C 2 ([0, 1]) (es decir, que tenga segunda derivada continua en [0, 1]), y que
interpole a los datos {0, 12 , 1} en la malla {0, 12 , 1} (ver figura).
1
(a) Sea m la derivada de s en 2 (o sea m = s ( 12 )). Encuentre las expresiones de p(x) y q(x)
en función de m.
(b) Determine el valor de la constante m de modo que la función s(x) resultante sea de clase
C 2 ([0, 1]). En este caso, escriba explı́citamente s(x) en el intervalo [0, 1].
Problema 4.27
Problema 4.28
Problema 4.29
Problema 4.30
Problema 4.31
Problema 4.32
Capı́tulo 5
Derivadas Numéricas
La primera fórmula para calcular derivadas numéricamente proviene del cálculo diferencial, y
es dada por
f (x + h) − f (x)
f (x) = + R(h2 ) , (5.1)
h
donde limh→0 R(h2 ) = 0 .
Para tener mejores aproximaciones podemos usar expansión de Taylor alrededor de x para
f (x + h) y f (x − h)
h2 h3
f (x + h) = f (x) + hf (x) + f (x) + f (x) + · · · (5.2)
2 6
f (x) = f (x) (5.3)
2 3
h h
f (x − h) = f (x) − hf (x) + f (x) − f (x) + · · · (5.4)
2 6
con ξ1 (x) entre x y x + h y ξ2 (x) entre x − h y x . Restando (5.6) de (5.5), nos queda
h2
f (x + h) − f (x) = hf (x) + f (ξ1 (x)) ,
2
183
Sergio Plaza 184
h2 h3
f (x + h) = f (x) + hf (x) + f (x) + f (θ1 (x)) (5.9)
2 6
f (x) = f (x) (5.10)
2 3
h h
f (x − h) = f (x) − hf (x) + f (x) − f (θ2 (x)) (5.11)
2 6
con θ1 (x) entre x y x + h y θ2 (x) entre x − h y x .
Restando (5.11) de (5.9), nos queda
f (x + h) − f (x − h) h2
f (x) = − f (θ(x)) . (5.12)
2h
6
arpoximación error
h2 h3 h4
f (x + h) = f (x) + hf (x) + f (x) + f (x) + f (4) (η1 (x)) (5.13)
2 6 24
f (x) = f (x) (5.14)
h2 h3 h4
f (x − h) = f (x) − hf (x) + f (x) − f (x) + f (4) (η2 (x)) (5.15)
2 6 24
h4 (4)
f (x + h) − 2f (x) + f (x − h) = h2 f (x) + f (η(x))
12
Sergio Plaza 185
f (x + h) − 2f (x) + f (x − h) h2 (4)
f (x) = 2
− f (η(x)) (5.16)
h 12
aproximación error
Veamos ahora como obtener otras fórmulas para derivadas numérica usando interpolacion de
Lagrange.
Sea f : [a, b] −→ R tal que f (x) es continua. Sea x0 ∈ ]a, b[ y h = 0 pequeño. Definimos
x1 = x0 + h , h = 0 suficientemente pequeño para que x1 ∈ [a, b] . Tenemos la aproximación
de Lagrange de grado 1, L1 (x) para f (x) determinada por x0 y x1 , con su error. Esta es
dada por
(x − x0 )(x − x1 )
f (x) = L1 (x) + f (ξ(x))
2!
x − x1 x − x0 (x − x0 )(x − x1 )
= f (x0 ) + f (x1 ) + f (ξ(x))
x0 − x1 x1 − x0 2
(x − x0 − h) (x − x0 ) (x − x0 )(x − x0 − h)
= f (x0 ) + f (x0 + h) + f (ξ(x))
−h h 2
f (x0 + h) − f (x0 ) d (x − x0 )(x − x0 − h)
f (x) = + f (ξ(x))
h dx 2
f (x0 + h) − f (x0 ) 2(x − x0 ) − h
= + f (ξ(x))
h 2
(x − x0 )(x − x0 − h) d
+ (f (ξ(x))) .
2 dx
Luego
f (x0 + h) − f (x0 )
f (x) ≈ .
h
d
Ahora (f (ξ(x))) = f (ξ(x))ξ (x) , y no tenemos información sobre esto, luego el error de
dx
d
truncación no lo podemos estimar. Cuando x = x0 , el coeficiente que acompaña a f (ξ(x))
dx
se anula, y entonces
f (x0 + h) − f (x0 ) h
f (x0 ) = − f (ξ) (5.17)
h 2
-
n
(x − x0 ) · · · (x − xn ) (n+1)
f (x) = f (xk )Ln,k (x) + f (ξ(x))
(x + 1)!
k=0
-
n
(x − x0 ) · · · (x − xn ) (n+1)
d
f (x) = f (xk )Ln,k (x) + f (ξ(x))
dx(n + 1)!
k=0
-n
d (x − x0 ) · · · (x − xn )
= f (xk )Ln,k (x) + · f (n+1) (ξ(x))
dx (n + 1)!
k=0
(x − x0 ) · · · (x − xn )) d (n+1)
+ f (ξ(x))
(n + 1)! dx
-
n
f (n+1) (ξ(x)) 4
n
f (xj ) = f (xk )Ln,k (x) + (xj − xi ) (5.18)
(n + 1)! i = 0
k=0
i = j
(x − x1 )(x − x2 ) 2x − x1 − x2
L2,0 (x) = , L2,0 (x) =
(x0 − x1 )(x0 − x2 ) (x0 − x1 )(x0 − x2 )
(x − x0 )(x − x2 ) 2x − x0 − x2
L2,1 (x) = , L2,1 (x) =
(x1 − x0 )(x1 − x2 ) (x1 − x0 )(x1 − x2 )
(x − x0 )(x − x1 ) 2x − x0 − x1
L2,2 (x) = , L2,2 (x) =
(x2 − x0 )(x2 − x1 ) (x2 − x0 )(x2 − x1 )
2xj − x1 − x2 2xj − x0 − x2
f (xj ) = f (x0 ) + f (x1 )
(x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 )
4 2
2xj − x0 − x1 1
+f (x2 ) + f (3) (ξj ) (xj − xi )
(x2 − x0 )(x2 − x1 ) 6 i = 0
i = j
donde j = 0, 1, 2 y ξj depende de xj .
Sergio Plaza 187
1 3 1 h2
f (x0 ) = − f (x0 ) + 2f (x1 ) − f (x2 ) + f (3) (ξ0 ) ,
h 2 2 3
para xj = x1 , tenemos
1 1 1 h2
f (x1 ) = − f (x0 ) + f (x2 ) − f (3) (ξ1 )
h 2 2 6
y para xj = x2 ,
1 1 3 h2
f (x2 ) = f (x0 ) − 2f (x1 ) + f (x2 ) + f (3) (ξ2 ) .
h 2 2 3
Como x1 = x0 + h y x2 = x0 + 2h , tenemos
1 3 1 h2 (3)
f (x0 ) = − f (x0 ) + 2f (x0 + h) − f (x0 + 2h) + f (ξ0 )
h 2 2 3
1 1 1 h2
f (x0 + h) = − f (x0 ) + f (x0 + 2h) − f (3) (ξ1 )
h 2 2 6
1 1 3 h2 (3)
f (x0 + 2h) = f (x0 ) − 2f (x0 + h) + f (x0 + +2h) + f (ξ2 ) ,
h 2 2 6
1 h2
a) f (x0 ) = (−3f (x0 ) + 4f (x0 + h) − f (x0 + 2h) + f (3) (ξ0 )
2h 3
1 h2
b) f (x0 ) = (−f (x0 − h) + f (x0 + h)) − f (3) (ξ1 )
2h 6
1 h2
c) f (x0 ) = (f (x0 − 2h) − 4f (x0 − h) + 3f (x0 )) + f (3) (ξ2 )
2h 3
1 h4
d) f (x0 ) = (f (x0 − 2h) − 8f (x0 − h) + 8f (x0 + h) − f (x0 + 2h)) + f (5) (ξ)
12h 30
1
e) f (x0 ) = (−25f (x0 ) + 48f (x0 + h) − 36f (x0 + 2h) + 16f (x0 + 3h) − 3f (x0 + 4h)))+
12h
h4 (5)
f (ξ)
5
Sergio Plaza 188
5.1 Ejercicios
Problema 5.1 Usando las fórmulas anteriores (todas) calcule f (2.0) , donde f (x) = xex ,
primero con h = 0.1 y despues con h = −0.1 . Analice los resultados en comparación con la
derivada f (x) calculada en forma exacta y evaluada en x = 2.0 .
Problema 5.2 Para calcular numéricamente la derivada de una función f (x) , podemos usar
las siguiente aproximaciones
f (x0 + h) − f (x0 )
(i) f (x0 ) ≈ ,
h
f (x0 + h) − f (x0 − h)
(ii) f (x0 ) ≈ .
2h
1
(a) Considerando f (x) = sen(x) , x0 = π/4 , y hn = , con n = 1, . . . , 5 , estime f (π/4) ,
10n
usando (i) y (ii) anteriores.
(b) En ambas fórmulas (a) y (b) anteriores existe pérdidad de dı́gitos significativos (es decir,
son numéricamente inestables) pues existe resta de números parecidos ¿Cuál de ellas es
más inestable? Justifique su respuesta en forma teórica y numérica.
Problema 5.3 Obtenga los valores de a1 y a2 de modo que la fórmula de derivación numérica
f (1/2) ≈ a1 f (0) + a2 f (1/2) sea exacta para las funciones 1 , x .
Problema 5.4
Problema 5.5
Problema 5.6
Problema 5.7
Problema 5.8
Spline Cúbicos
Sea f : [a, b] −→ R y sean a = x0 < x1 < · · · < xn = b . Un spline cúbico S(x) para f (x) es
una función que satisface
2. S(xj ) = f (xj ) , j = 0, 1, . . . , n ,
Sj (x) = aj + bj (x − xj ) + cj (x − xj )2 + dj (x − xj )3 , (6.1)
j = 0, 1, . . . , n − 1 .
Ahora, aplicando la condición (3), tenemos
189
Sergio Plaza 190
j = 0, 1, . . . , n − 2 .
Usaremos la notación hj = xj+1 − xj , para j = 0, 1, . . . , n − 1 , y
an = f (xn ) . (6.3)
Ahora definamos
bn = S (xn ) . (6.5)
Tenemos entonces
bj+1 = Sj+1 (xj+1 ) = Sj (xj+1 ) = bj + 2cj hj + 3dj h2j (6.7)
j = 0, 1, . . . , n − 1 .
Definamos
S (xn )
cn = (6.8)
2
aplicando la condición (5), obtenemos
cj+1 − cj
dj = (6.10)
3hj
Reemplazando en la ecuación para aj+1 (6.4) y para bj+1 (6.7), nos queda
h2j
aj+1 = aj + bj hj + (2cj + cj+1 ) (6.11)
3
1 hj
bj = (aj+1 − aj ) − (2cj + cj+1 ) (6.13)
hj 3
Sergio Plaza 191
Para j − 1 obtenemos
1 hj−1
bj−1 = (aj − aj−1 ) − (2cj−1 + cj ) . (6.14)
hj−1 3
3 3
hj−1 cj−1 + 2(hj−1 + hj )cj + hj cj+1 = (aj+1 − aj ) − (aj − aj−1 ) (6.15)
hj hj−1
j = 1, . . . , n − 1 .
Notemos que hj y aj son conocidos. Los otros coeficientes bj y dj , j = 0, 1, . . . , n − 1 se
obtienen de
1 hj
bj = (aj+1 − aj ) − (2cj + cj+1 ) (6.16)
hj 3
cj+1 − cj
dj = . (6.17)
3hj
Teorema 6.1 Sea f : [a, b] −→ R y a = x0 < x1 < · · · < xn = b . Entonces f tiene un único
spline cúbico natural en los nodos x0 , x1 , . . . , xn .
S (xn )
Demostración. En este caso las condiciones de frontera significan que cn = 2 = 0 y que
0 = S (x0 ) = 2c0 + 6d0 (x0 − x0 ) , luego c0 = 0 .
De las dos ecuaciones c0 = 0 y cn = 0 junto con las ecuaciones lineales (6.15) se tiene el
sistema de ecuaciones lineales Ax = b , donde A es la matriz (n + 1) × (n + 1) dada por
⎛ ⎞
1 0 0 0 ··· 0 0 0
⎜ ··· ⎟
⎜ h0 2(h0 + h1 ) h1 0 0 0 0 ⎟
⎜ ⎟
⎜ 0 h1 2(h1 + h2 ) h2 ··· 0 0 0 ⎟
A=⎜
⎜ .. .. .. .. .. .. .. .. ⎟
⎟
⎜ . . . . . . . . ⎟
⎜ ⎟
⎝ 0 0 0 0 ··· hn−2 2(hn−2 + hn−1 ) hn−1 ⎠
0 0 0 0 ··· 0 0 1
⎛ ⎞
0 ⎛ ⎞
⎜ 3 3 ⎟ c0
⎜ h1 (a 2 − a 1 ) − − a0 )
h0 (a1 ⎟ ⎜ ⎟
⎜ .. ⎟ ⎜ c1 ⎟
⎜ ⎟ ⎜ ⎟
⎜ . ⎟ ⎜ .. ⎟
b=⎜ ⎟ y x=⎜ . ⎟
⎜ .. ⎟ ⎜ ⎟
⎜ . ⎟ ⎜ .. ⎟
⎜ 3 3 ⎟ ⎝ . ⎠
⎝ hn−1 (a n − a n−1 ) − hn−2 (a n−1 − a n−2 ) ⎠
cn
0
1 hj
bj = (aj+1 − aj ) − (2cj + cj+1 ) (6.18)
hj 3
1 h0
b0 = f (a) = (a1 − a0 ) − (2c0 + c1 )
h0 3
3
2h0 c0 + h0 c1 = (a1 − a0 ) − 3f (a) .
h0
De modo análogo
an − an−1 hn−1
f (b) = − (2cn−1 + cn ) + hn−1 (cn−1 + cn )
hn−1 3
an − an−1 hn−1
= + (cn−1 + 2cn )
hn−1 3
y que
3
hn−1 cn−1 + 2hn−1 cn = 3f (b) − (an − an−1 ) .
hn−1
3
2h0 c0 + h0 c1 = (a1 − a0 ) − 3f (a)
h0
y
3
hn−1 cn−1 + 2hn−1 cn = 3f (b) − (an − an−1 )
hn−1
⎛ ⎞
2h0 h0 0 0 ··· 0 0 0
⎜ ··· ⎟
⎜ h0 2(h0 + h1 ) h1 0 0 0 0 ⎟
⎜ ⎟
⎜ 0 h1 2(h1 + h2 ) h2 ··· 0 0 0 ⎟
A=⎜
⎜ .. .. .. .. .. .. .. .. ⎟
⎟
⎜ . . . . . . . . ⎟
⎜ ⎟
⎝ 0 0 0 0 ··· hn−2 2(hn−2 + hn−1 ) hn−1 ⎠
0 0 0 0 ··· 0 hn−1 2hn−1
⎛ 3 ⎞
h0 (a1− a0 ) − 3f (a) ⎛ ⎞
⎜ 3 3 ⎟ c0
⎜ h1 (a2 − a1 ) − h0 (a1 − a0 ) ⎟ ⎜ ⎟
⎜ .. ⎟ ⎜ ⎟ c1
⎜ ⎟ ⎜ ⎟
⎜ . ⎟ ⎜ ⎟ ..
b=⎜ .. ⎟ y x=⎜ ⎟ .
⎜ ⎟ ⎜ . ⎟
⎜ . ⎟ ⎜ . ⎟
⎜ 3 3 ⎟ ⎝ . ⎠
⎝ hn−1 (a n − a n−1 ) − hn−2 (a n−1 − a n−2 ⎠
)
3 cn
3f (b) − hn−1 (an − an−1 )
donde hi = xi+1 − xi y c, d son las constantes de integración. Ahora, imponiendo las condi-
ciones
Si (xi ) = f (xi ) = yi
Si (xi+1 ) = yi+1 .
⎧ zi
⎪
⎪ h3i + cxi + d = yi
⎨ 6hi
⎪
⎪
⎩ h3 zi + cxi+1 + d = yi+1
i
6hi
yi+1 − yi (zi+1 − zi ) yi xi+1 − yi+1 xi xi zi+1 − xi+1 zi
de donde c = − hi y d = + hi .
hi 6 hi 6
Reemplazando en la ecuación (6.19) nos queda
Sergio Plaza 194
zi (x − xi )3 zi+1 (yi+1 − yi ) (zi+1 − zi )
Si (x) = (xi+1 − x)3 + + − hi x
6hi 6hi hi 6
yi xi+1 − yi+1 xi xi zi+1 − xi+1 zi
+ + hi (6.20)
hi 6
Para encontrar zi y zi+1 imponemos la condición Si−1 (xi ) = Si (xi ) .
1 1
Si (xi ) = − hi zi − hi zi+1 + bi
3 6
y
1 1
Si−1 (xi ) = hi−1 zi−1 + hi−1 zi + bi
6 3
imponiendo la condición Si−1 (xi ) = Si (xi ) nos queda
donde
⎧
⎪ hi = ti+1 − ti
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ u = 2(hi + hi−1 )
⎪
⎨ i
⎪
⎪ 6
⎪
⎪ bi = (xi+1 − xi ), Sj (tj ) = xj
⎪
⎪ hi
⎪
⎪
⎪
⎪
⎩
vi = bi − bi−1
6.3 Ejercicios
Problema 6.1 Sea f : [a, b] −→ R un polinomio cúbico. Denote por S1 y S2 , los spline
cúbicos libre y sujeto determinados por f ¿S1 y S2 coinciden con f ? Justique su respuesta.
Sergio Plaza 195
x3 , x ∈ [0, 1]
f (x) = 1 3 2
2 (x − 1) + a(x − 1) + b(x − 1) + c , x ∈ [1, 3]
es un spline cúbico.
Problema 6.3 Sea s(x) el spline cúbico natural con nodos (0, 2) , (1, 0) , (2, 3) y (3, 1) .
Suponga que
⎧
⎪ 11 5
⎪
⎪ 2 − x + x3 si 0x<1
⎪
⎪ 3 3
⎪
⎪
⎪
⎨
56 10
s(x) = 7 − x + 15x2 − x3 si 1x<2
⎪
⎪ 3 3
⎪
⎪
⎪
⎪
⎪
⎪
⎩ −33 + 124 x + Ax2 + Bx3 si 2x3
3
Encuentre A y B .
Problema 6.4 Si s(x) = 0 para x < 2 y s(x) = (x − 2)3 para x 2 ¿es s(x) un spline cúbico?
Justifique.
x3 + ax2 − 4x + c 0x2
s(x) =
−x3 + ax2 + bx + 34, 2x4
Encuentre las constantes a, b y c de modo que s(x) es dos veces continuamente derivable
en [0, 4] ¿Es s(x) para esas constantes un spline cúbico?
1 − x + ax2 + x3 si 0x1
s(x) =
3 + bx + cx2 − x3 si 1<x2
Determine a, b , y c de modo que s(x) sea un spline cúbico natural sobre el intervalo [0, 2]
1
Problema 6.7 Considere la función f : [−1, 1] −→ R dada por f (x) = . Usando
1 + 25x2
divisiones uniformes, calcule y grafique Ln (x) , para n = 2, 3, 4, . . . , 10 . Calcule y grafique
las interpolaciones por spline cúbicos naturales y libres (imponga las condiciones adecuadas en
cada caso) para esas subdivisiones. Grafique f (x) , Ln (x) y sn (x) . Compare ¿Cuál es su
conclusión?
Problema 6.8
Problema 6.9
Sergio Plaza 196
Problema 6.10
Problema 6.11
Problema 6.12
Problema 6.13
Problema 6.14
Capı́tulo 7
Ajuste de Curvas
En general esto no es posible hacer en forma exacta. Buscamos entonces una función f (x)
tal que
f (xk ) = yk + ek , (7.1)
Problema 2 Cómo encontramos la mejor aproximación, es decir, que pase lo más cerca posible
y no necesariamente sobre esos puntos? Para responder a esta pregunta, hay que considerar los
errores (los cuales son también llamados desviaciones o residuos).
ek = f (xk ) − yk , 1 k n, (7.2)
donde ek son llamados errores o desviaciones o residuos, sean en algún sentido “pequeños”.
Existen varias formas que pueden usarse en (7.2) para medir la distancia entre la curva
y = f (x) y los datos.
a) Error máximo
E∞ (f ) = max{|f (xk ) − yk | : 1 k n} .
b) Error medio
1-
n
E1 (f ) = |f (xk ) − yk | .
n
k=1
197
Sergio Plaza 198
1-
n
E2 (f )2 = |f (xk ) − yk |2 ,
n
k=1
-
n
F (f ) = |f (xk ) − yk |2 .
k=1
1
E1 (f ) = × 2.6 ≈ 0.325
8
1/2
14
E2 (f ) = ≈ 0.4183300133 .
8
Esta distancia es
dk = |Axk + B − yk | .
-
n -
n
Sea E(A, B) = (Axk + B − yk )2 = d2k .
k=1 k=1
Sergio Plaza 199
⎧
⎪
⎪
∂E
⎪
⎨ ∂A = 0
⎪
⎪
⎪
⎩ ∂E = 0,
∂B
llamadas ecuaciones normales de Gauss. Tenemos
∂E -
n -
n
= 2(Axk + B − yk )xk = 2(Ax2k + Bxk − xk yk ) ,
∂A
k=1 k=1
∂E
luego = 0 si y sólo si
∂A
$ % $ %
-
n -
n -
n
x2k A+ xk B= xk yk .
k=1 k=1 k=1
Ahora
∂E - n
= 2(Axk + B − yk ) = 0
∂B
k=1
si y sólo si
$ %
-
n -
n
xk A + nB = yk
k=1 k=1
-
n
2
E(A) = k − yk ) .
(AxM
k=1
∂E
Debemos resolver = 0 . Tenemos
∂A
Sergio Plaza 200
∂E -
n
k − yk )xk
2(AxM M
=
∂A
k=1
-
n
= 2 Ax2M
k − xM
2 yk .
k=1
∂E
Luego, = 0 si y sólo si
∂A
-
n -
n
A x2M
k = xM
k yk ,
k=1 k=1
es decir,
-
n <-
n
A= xM
k yk x2M
k ,
k=1 k=1
xk yk
−1 10
0 9
1 7
2 5
3 4
4 3
5 0
6 −1
⎧
⎨ X = x
B = ln(C)
⎩
Y = ln(y)
y el problema se transforma en
Y = Ax + B .
$ % $ %
-
n -
n -
n
Xk2 A+ Xk B = Xk Yk
k=1 k=1 k=1
$ %
-
n -
n
Xk A + nB = Yk .
k=1 k=1
Ejemplo 70 Encontrar la curva de ajuste de la forma y = CeAx , para los datos (0, 1.5) ,
(1, 1.25) , (2, 3.5) , (3.5) , (4, 7.5) .
-
n
E(A, C) = (CeAxk − yk )2 .
k=1
Tenemos
∂E -
n
= 2(CeAxk − yk )Cxk eAxk = 0
∂A
k=1
∂E -
n
= 2(CeAxk − yk )eAxk = 0
∂C
k=1
de donde,
⎧
⎪ -
n -n
⎪
⎪ 2Axk
− xk yk eAxk
⎪
⎪ C xk e = 0
⎪
⎨ k=1 k=1
⎪
⎪ - -
⎪
⎪
n n
⎪
⎪ C e2Axk − yk eAxk = 0.
⎩
k=1 k=1
Estas son ecuaciones no lineales en A y C , y se pueden resolver, por ejemplo, usando Newton
en varias variables.
Sergio Plaza 202
-
m
f (x) = cj fj (x)
j=1
⎛⎛ ⎞ ⎞2
-
n -
n -
m
E(c1 , c2 , . . . , cm ) = (f (xk ) − yk )2 = ⎝⎝ cj fj (xk )⎠ − yk ⎠ .
k=1 k=1 j=1
∂E
= 0 , i = 1, . . . , m .
∂ci
Tenemos
⎛⎛ ⎞ ⎞
∂E -
n -m
= 2 ⎝⎝ cj fj (xk )⎠ − yk ⎠ fi (xk ) = 0 , i = 1, . . . , m
∂ci j=1
k=1
$ n %
-
m - -
n
fi (xk )fj (xk ) cj = fi (xk )yk , i = 1, 2, . . . , m .
j=1 k=1 k=1
Esto lo podemos escribir de otra forma, introduciendo notación matricial, para ello definimos
⎡ ⎤
f1 (x1 ) f2 (x1 ) · · · fm (x1 )
⎢ f1 (x2 ) f2 (x2 ) · · · fm (x2 ) ⎥
⎢ ⎥
F =⎢ .. .. .. .. ⎥
⎣ . . . . ⎦
f1 (xn ) f2 (xn ) · · · fm (xn ) n×m
⎡ ⎤
f1 (x1 ) f1 (x2 ) · · · f1 (xn )
⎢ f2 (x1 ) f2 (x2 ) · · · f2 (xn ) ⎥
⎢ ⎥
FT = ⎢ .. .. .. .. ⎥
⎣ . . . . ⎦
fm (x1 ) fm (x2 ) · · · fm (xn ) m×n
Sergio Plaza 203
⎛ ⎞
y1
⎜ y2 ⎟
⎜ ⎟
Y =⎜ .. ⎟.
⎝ . ⎠
yn
⎛ ⎞⎞ ⎛
y1
-
n
⎜ ⎜ ⎟⎟
fi (xk )yk = filai ⎝F T ⎝ ... ⎠⎠ .
k=1
yn
-
n
fi (xk )fj (xk ) = fi (x1 )fj (x1 ) + fi (x2 )fj (x2 ) + · · · + fi (xn )fj (xn ) .
k=1
FTFC = FTY
cuya incógnita es C .
f (x) = c1 + c2 x + · · · + cn+1 xn
Sea
-
n
E(A, B, C) = (Ax2k + Bxk + C − yk )2 .
k=1
Sergio Plaza 204
esto es,
$ % $ % $ %
-
n -
n -
n -
n
x4k A+ x3k B+ x2k C = yk x2k
k=1 k=1 k=1 k=1
$ % $ % $ %
-
n -
n -
n -
n
x3k A+ x2k B+ xk C = xk yk
k=1 k=1 k=1 k=1
$ % $ %
-
n -
n -
n
x2k A+ xk B + nC = yk .
k=1 k=1 k=1
Capı́tulo 8
Integración Numérica
En el Capı́tulo sobre Interpolación hemos deducidos las fórmulas de la regla de los Trapecios y
la de Simpson.
Sean x0 < x1 < · · · < xn puntos dados y sea f : [x0 , xn ] −→ R una función suficientemente
diferenciable. Una fórmula del tipo
xn
f (x) = Q[f ] + E[f ] , (8.1)
x0
donde
-
n
Q[f ] = ωk f (xk ) (8.2)
k=0
205
Sergio Plaza 206
4. Regla de Boole simple. Esta fórmula de cuadratura es dada como sigue. Tomamos los
nodos x0 < x1 < x2 < x3 < x4 , con paso constante h = xi+1 − xi , y los pesos
ω0 = ω4 = 14 64 24
45 h , ω1 = ω3 = 45 h y ω2 = 45 h . La regla de Boole es dada entonces por
x4
2 8 7 (6)
f (x)dx = h [7f (x0 ) + 32f (x1 ) + 12f (x2 ) + 32f (x3 ) + 7f (x4 )] − h f (c) ,
x0 45
945
Q[f ] E[f ]
con c ∈ ]x0 , x4 [ . Esta fórmula de cuadratura tiene grado de presición5 si f (6) es continua.
(x 1 ,y 1 ) (x 2 ,y 2 )
(x 0,y 0) (x 3 ,y 3 )
y = f(x)
x0 x1 x2 x3 x
Ahora, si tenemos los nodos x0 < x1 < · · · < xn , con paso hj = xj+1 − xj y queremos
aproximar el valor de xn
f (x)dx
x0
c b c
usando el hecho que a f (x)dx = a f (x)dx + b f (x)dx , integramos sobre los subintervalos
[xj , xj+1 ] , para j = 0, 1, . . . , n − 1 y aplicando la fórmula de los trapecios simples, obtenemos
Sergio Plaza 207
xn - xj+1
n−1 -
n−1 - h3j
n−1
hj
f (x) = f (x) = (f (xj ) + f (xj+1 )) − f (ξj ) , (8.4)
x0 j=0 xj j=0
2 j=0
12
Q[f ] Etotal error total
h3 -
n−1
Etotal = − f (ξj ) , ξj ∈ ]xj , xj+1 [
12 j=0
h3
= − n f (ξ) , ξ ∈ ]x0 , xn [
12
h2 xn − x0
= − nh f (ξ) , como h =
12 n
h2
= − (xn − x0 )f (ξ) .
12
xn
h h2
f (x) = [f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )] − (xn − x0 )f (ξ) , (8.5)
x0 2 12
Q[f ] E[f ]
donde c ∈ ]x0 , x4 [ .
Ahora si tenemos los nodos x0 < x1 < · · · < xn , como antes suponemos que tenemos paso
constante h = xk+1 − xk , integrando en cada subintervalo de la forma [xj , xj+2 ] , tenemos
xj+2
h h5
f (x) = (f (xj ) + 4f (xj+1 ) + f (xj+2 )) − f (4) (θj ) , (8.7)
xj 3 90
Sergio Plaza 208
xn
h
f (x)dx = [(f (x0 ) + 4f (x1 ) + f (x2 )) + (f (x2 ) + 4f (x3 ) + f (x4 )) + · · ·
x0 3
h5 n (4)
+(f (xn−2 ) + 4f (xn−1 ) + f (xn ))] − f (θ) ,
90 2
⎛ ⎞
n−2
-
n−2
-
xn
h⎝ 2 2
(xn − x0 ) (4)
f (x)dx = f (x0 ) + f (xn ) + 4 f (x2j−1 ) + 2 f (x2j )⎠ − h4 f (θ) .
x0 3 j=1 j=1 180
E[f ]
E[f ]
(8.8)
Esta es la regla de Simpson compuesta.
⎛ ⎞
xn
n−3
-3
n−3
-3
n−3
-3
3 ⎝
f (x)dx ≈ h f (x0 ) + f (xn ) + 3 f (x3j+1 ) + 3 f (x3j+2 ) + 2 f (x3j+3 )⎠ , (8.10)
x0 8 j=0 j=0 j=0
(xn − x0 )5 (4)
E[f ] = −
f (θ) , (8.11)
6480
donde θ ∈ ]x0 , xn [ . Las reglas de los trapecios y la de Simpson pertenecen a una clase de
métodos para aproximar integrales, llamadas fórmulas de Newton–Cotes.
Sergio Plaza 209
donde
xn xn 4
n
(x − xk )
An,j = Ln,j (x)dx = ,
x0 x0 k =0
(xj − xk )
k = j
son obtenidas integrando el polinomio de Lagrange de grado n , que recordemos es dado por
-
n
Ln (x) = f (xj )Ln,j (x) ,
j=0
4
n
x − xi
donde Ln,j = , que interpola a f en los nodos x0 < x1 < · · · < xn
i =0
xj − xi
i = j
n
Teorema 8.1 Denotemos por j=0 Aj f (xj ) la fórmula de Newton–Cotes cerrada de (n + 1)
n . Entonces existe θ ∈ ]a, b[ , tal que
puntos, con x0 = a , xn = b y h = b−a
b -
n n
hn+3 (n+2)
(α) f (x)dx = Aj f (xj ) + f (θ) t2 (t − 1) · · · (t − n)dt ,
a j=0
(n + 2)! 0
b xn+1 -
n
f (x)dx = f (x)dx ≈ Aj f (xj ) ,
a x−1 j=0
Sergio Plaza 210
b
donde Aj = Ln,j (x)dx .
a
Con las notaciones anteriores, tenemos que existe θ ∈ ]a, b[ tal que
b -
n n
hn+3 (n+2)
(α ) f (x)dx = Aj f (xj ) + f (θ) t2 (t − 1) · · · (t − n)dt ,
a j=0
(n + 2)! −1
Por ejemplo,
x1 h3
n = 0, x−1
f (x) = 2hf (x0 ) + 3 f (θ) , x−1 < θ < x1 ,
x2 3h
n = 1, x−1
f (x) = 2 (f (x0 ) + f (x1 )) + 34 h3 f (θ) , x−1 < θ < x2 ,
⎛ ⎞
2j−1
-−1
b
hj ⎝ (b − a) 2
f (x) = f (a) + f (b) + 2 f (a + ihj )⎠ − hj f (θj ) , (8.12)
a 2 i=1
12
donde θj ∈ ]a, b[ .
Usando la notación
h1 b−a
R1,1 = (f (a) + f (b)) = (f (a) + f (b))
2 2
h2
R2,1 = (f (a) + f (b) + 2f (a + h2 ))
2
b−a b−a
= f (a) + f (b) + 2f a +
4 2
1
= (R1,1 + h1 f (a + h2 ))
2
En general,
⎛ j−2
⎞
2-
1⎝
Rj,1 = Rj−1,1 + hj−1 f (a + (2i − 1)hj )⎠
2 i=0
Sergio Plaza 211
j = 2, 3, . . . , n . Tenemos
b ∞
-
f (x) − Rj,1 = K1 h2j + Ki h2i
j ,
a i=2
Rk,j−1 − Rk−1,j−1
Rk,j = Rk,j−1 +
4j−1 − 1
k = 2, . . . , n y j = 2, . . . , k .
Estos resultados pueden tabularse como
R1,1
R2,1 R2,2
R3,1 R3,2 R3,3
.. .. .. ..
. . . .
Rn,1 Rn,2 Rn,3 ··· Rn,n
↓
b
a
f (x)
b
f (x) .
a
1
b
(b − a)t + (b + a) b−a
f (x)dx = f dt
a −1 2 2
por lo tanto buscamos un método para obtener aproximaciones a una integral del tipo
1
f (x)dx .
−1
1
f (x) ≈ c1 f (x1 ) + c2 f (x2 ) , (8.13)
−1
y el resultado sea exacto cuando f (x) es un polinomio de grado menor o igual que 3.
Escribamos f (x) = a0 + a1 x + a2 x2 + a3 x3 . Tenemos entonces
Sergio Plaza 212
f (x) = a0 1 + a1 x + a2 x2 + a3 x3 ,
1
c1 · 1 + c2 · 1 = 1=2
−1
1
c1 x1 + c2 x2 = x=0
−1
1
2
c1 x21 + c2 x22 = x2 =
−1 3
1
c1 x31 + c2 x32 = x3 = 0
−1
√ √
3 3
resolviendo esas ecuaciones obtenemos c1 = 1 , c2 = 1 , x1 = − 3 y x2 = 3 . Luego
$ √ % $√ %
1
3 3
f (x) ≈ f − +f .
−1 3 3
En general, el problema es resuelto considerando los polinomios de Legendre {P0 (x), P1 (x), . . .} .
Estos son polinomios que satisfacen
P0 (x) = 1
P1 (x) = x
1
P2 (x) = x2 −
3
3
P3 (x) = x3 − x
5
..
.
Teorema 8.2 Supongamos que x1 , x2 , . . . , xn son las raı́ces del polinomio de Legendre Pn (x)
y que los números ci son dados por
1 4
n
x − xj
ci = dx , i = 1, 2, . . . , n
−1 j =1
xi − xj
j = i
Sergio Plaza 213
1 -
n
P (x) = ci P (xi ) .
−1 i=1
x 0 1 2 3 4 5 6
f (x) 5 4 1 −1 −1 0 3
Solución.
a) Tenemos que L6 (x) = L6,0 (x)y0 +L6,1 (x)y1 +L6,2 (x)y2 +L6,3 (x)y3 +L6,4 (x)y4 +L6,5 (x)y5 +
L6,6 (x)y6 , donde
5 1 7 4 1 5 1 6 341 2
5+ x − x3 + x − x + x − x
N( x ) = x − 6 4 18 12 180 180
5 3 2 14 3 5 4 1 5 341
− x + x − x + x − x
6 4 9 12 30 90
Comenzando la busqueda de la raı́z en x0 = 2 la convergencia es rápida y la raı́z buscada
es aproximadamente igual a x̄ = 2, 37 , y L6 (x̄) = 0, 0096448 . (Obviamente podemos
obtener una mejor aproximación, pero eso sólo implica más iteraciones).
b
b) La fórmula de integración de Simpson es a f (x)dx ≈ h3 (f0 + 4f1 + 2f2 + 4f3 + 2f4 +
· · · + 2fn−2 + 4fn−1 + fn ), donde fi = f (xi ) = yi , y h = b−a
n . En nuestro caso, h = 1 y
6
tenemos 0 f (x)dx ≈ (5 + 4 · 4 + 2 · 1 + 4 · −1 + 2 · −1 + 4 · 0 + 3)/3 = 20/3 = 6, 66666....
Por otra parte, tenemos que
5 1 7 4 1 5 1 6 341 2
L6 (x) = 5 + x − x3 + x − x + x − x
6 4 18 12 180 180
integrando, obtenemos
6 6
f (x)dx ≈ L6 (x)dx = 6, 571428571
0 0
Sergio Plaza 215
k xk f (xk ) f (xk )
0 1 5 −2
1 2 −1 −1
2 3 3 4
Solución
a) Tenemos que
(x − 2)(x − 3) x2 5x
L2,0 (x) = = − +3
(1 − 2)(1 − 3) 2 2
5
L2,0 (x) = x−
2
(x − 1)(x − 3)
L2,1 (x) = = −x2 + 4x − 3
(2 − 1)(2 − 3)
(x − 1)(x − 2) x2 3x
L2,2 (x) = = − +1
(3 − 1)(3 − 2) 2 2
3
L2,2 (x) = x−
2
Ahora, como Hn,j (x) = (1 − 2(x − xj )Ln,j (xj ))(Ln,j (x))2 tenemos
2
1 2 5
H2,0 ( x ) = (3x − 2) x − x+3
2 2
3 5 131 3 127 2
= x − 8 x4 + x − x + 57 x − 18
4 4 2
2
1 2 5
Ĥ2,0 (x) = (x − 1) x − x+3
2 2
1 5 11 4 47 3 97 2
= x − x + x − x + 24 x − 9
4 4 4 4
Sergio Plaza 216
Ĥ2,1 ( x ) = ( x − 2 ) ( −x2 + 4 x − 3 )2
= x5 − 10 x4 + 38 x3 − 68 x2 + 57 x − 18
2
1 2 3
H2,2 ( x ) = (x − 8) x − x+1
2 2
1 5 7 4 61 3
= x − x + x − 29 x2 + 25 x − 8
4 2 4
2
1 2 3
Ĥ2,2 ( x ) = ( 10 − 3x ) x − x+1
2 2
1 5 9 4 31 3 51 2
= x − x + x − x + 10 x − 3
4 4 4 4
27x4 299x
H5 (x) = x5 − + 67x3 − + 145x − 45
2 2
299 2 27 4
−45 + 145 x + x5 − x + 67 x3 − x
N( x ) = x − 2 2
4 2
145 + 5 x − 299 x + 201 x − 54 x3
b) Calculando
3 3
145 2 1 6 299 3 67 4 27 5 3
f (x)dx ≈ H2 (x)dx = −45 x+ x + x − x + x − x |1 = 2, 266666667
1 1 2 6 6 4 10
3
5 − 1 −1 + 3
f (x)dx ≈ + =3
1 2 2
Sergio Plaza 217
8.9 Ejercicios
1
Problema 8.1 Sea f (x) = 1+e−x sen(4x) . Aproxime el valor de la integral 0 f (x)dx , usando
Compare los resultados obtenidos en cada aproximación con el resultado exacto de la integral
1
21e − 4 cos(4) − sen(4)
f (x)dx = ≈ 1.3082506046426 . . .
0 17e
Problema 8.2 Deduzca la fórmula del punto medio simple para aproximar integrales, la cual
es dada por
b
a+b
f (x)dx ≈ (b − a) f (8.14)
a 2
Usando esta fórmula, deduzca la fórmula del punto medio compuesta para aproximar el
x
valor de la integral x0n f (x)dx , usando los nodos x0 < x1 < · · · < xn , con paso constante
h = xj+1 − xj , la cual es dada por
-
n
xn
xn − x0 2
f (x)dx = h f (x̄k ) − h f (α) (8.15)
x0 24
k=1
xk−1 +xk
donde x̄k = 2 y α ∈ ]x0 , xn [ .
n x−1
1
1
n x−1
x e dx = x e 0
− nxn−1 ex−1 dx
0 0
En = 1 − nEn−1 , n = 2, 3, . . . ,
donde E1 = 1/e .
Sergio Plaza 218
2. Es numéricamente estable?
1. Transforme N (x) usando la expresión anterior para que pueda utilizar la fórmula de
Simpson.
3
Problema 8.6 Se sabe que ex dx = 19.08553692... . Estime el valor de la integral usando
3 0
trapezoide, Simpson y Simpson 8 .
Problema 8.7 Sea f una función continua. Use cuadratura de Gauss sobre [−1, 1] con 3
nodos para obtener la fórmula
$ √ % $√ %
1
5 − 15 8 5 15
f (x) ≈ f + f (0) + f .
−1 9 5 9 9 5
Problema 8.8 Deduzca la fórmula de cuadratura gaussiana con 3 modos reescalada al intervalo
[0, 1] , la cual es dada por
$ √ % $ √ %
1
5 5 − 15 4 1 5 5 + 15
f (x)dx ≈ f + f + f
0 18 10 9 2 18 10
1
y use esta para calcular un valor aproximado para f (x)x3 dx
0
Sergio Plaza 219
1
f (x)x3 dx
0
si f (x) es un polinomio de grado menor o igual que 2. Encuentre el error en Q(x4 ) , como una
1
aproximación de x7 dx .
0
Problema 8.11 Obtenga los valores de las constantes c1 , c2 , x1 y x2 tales que la siguiente
fórmula de integración numérica
1
F (x)dx = c1 F (x1 ) + c2 F (x2 )
−1
sea exacta para todos los polinomios de grado menor o igual a 3. Use dicha fórmula para
5
aproximar la integral de la función f (x) = (x − 3) en el intervalo [2, 4].
c
Problema 8.12 Queremos aproximar el valor de la integral I(f ) = 0 f (x)dx , donde f (x) =
cos2 (x)e−x y c es una constante positiva. Esta integral puedes ser aproximada con error
absoluto menor que ε > 0 dado, para ellos usamos una fórmula de integración numérica.
Fijando ε = 10−3 , estime la cantidad de intervalos que son necesarios, en terminos de c , si
usamos la regla de los trapecios compuesta para aproximar I(f ) .
Problema 8.13 Sea f : [x0 , xn ] −→ R una función a la cual deseamos aproximar el valor de
xn
x0
f (x)dx . Denotemos por I1 el valor obtenido usando al regla de los trapecios con un paso
constante h1 e I2 el valor obtenido usando la regla de los trapecios con paso constante h2 ,
con la condición h1 = h2 . Defina
I1 − I2
Ik = I1 + h2
2
h2
−1
1
Muestre con varios ejemplos que el valor Ik , llamado extrapolación de Richardson, es una
mejor aproximación que I1 y que I2 para la integral.
Sergio Plaza 220
Problema 8.14
Problema 8.15
Problema 8.16
Capı́tulo 9
x = f (t, x)x(t0 )
(9.1)
x(t0 ) = x0 .
Por ejemplo,
x = x tang(t + 3)
x(−3) = 1.
R = {(t, x) : |t − t0 | α, |x − x0 | β} .
∂f
Teorema 9.2 Si f y son continuas en
∂x
R = {(t, x) : |t − t0 | α, |x − x0 | β} ,
entonces el problema (9.8) tiene una única solución x(t) para |t − t0 | min{α, β/M } .
221
Sergio Plaza 222
Por ejemplo, si g es derivable y g es acotada en [a, b] entonces, por el teorema del valor
medio, g es Lipschitz.
En lo que sigue suponemos que el problema (9.8) tiene solución única. Tenemos entonces el
siguiente problema.
Problema 2. Encontrar una solución exacta o una aproximación a una solución exacta del
problema (9.8).
DIBUJO
dx
= f (t, x)
dt
definimos los incrementos
Tenemos
dx
= f (t, x) = −2t3 + 12t2 − 20t + 8.5
dt
Luego, x(0.5) = x(0)+f (0, 1)×0.5 , donde x(0) = 1 y la pendiente en t = 0 es f (0, 1) = 8.5 .
Luego xA = x(0.5) = 1 + 8.5 × 0.5 = 5.25 y la solución exacta en t = 0.5 es xT = x(0.5) =
3, 21875 . Se deja al lector completar los cálculos.
Recordemos que el error es
E(xA ) = xT − xA
en nuestro caso E(xA ) = 3.21875 − 5.25 = −2.03125 y el error relativo (porcentaje de error)
xT − xA 2.03125
ER (xA ) = =− = −63.1% .
xT 3.21875
(n)
xi 2 x
xi+1 = xi + xi h + h + · · · + i hn + Rn
2 n!
x(n+1) (θ) n+1
donde h = ti+1 − ti y Rn = h , con θ entre ti y ti+1 . Escrito de otra forma
(n + 1)!
f (ti , xi ) 2
Luego, Error = h + · · · y podemos considerar el error aproximado
2
f (ti , xi ) 2
Ea = h ( error de trancamiento local )
2
Observación. Vimos que
f (ti , xi ) 2 f (ti , xi ) 3
xi+1 = xi + f (ti , xi )h + h + h + ···
2 3!
método de Euler
error
Ahora, para estimar el error aproximado hasta el orden 3, tenemos que calcular f (ti , xi ) .
Sabemos del cálculo diferencial que
Sergio Plaza 224
∂f ∂f dx
f (ti , xi ) = +
∂t ∂x dt
luego,
∂ ∂f ∂f dx ∂ ∂f ∂f dx
f (ti , xi ) = + · + +
∂t ∂t ∂x dt ∂x ∂t ∂x dt
desarrollando esto, se obtiene una expresión larga y no muy cómoda para f (t, x) .
DIBUJO
Tenemos
xi+1 = f (ti , xi ) ,
⎧
⎪
⎪ x0 = xi + f (ti , xi )h (ec. Predictor)
⎨ i+1
⎪
⎪ f (ti , xi ) + f (ti+1 , x0i+1 )
⎩ xi+1 = xi + h (ec. Corrector)
2
Escrito de otra forma, nos queda
DIBUJO
Usaremos ese valor promedio para calcular la pendiente en el punto medio (ti+1/2 , xi+1/2 ) y
después extrapolamos a xi+1 , usando este valor intermedio, es decir, tenemos
h
xi+1 = xi + f (ti+1/2 , xi+1/2 ) (Euler mejorado)
2
esto es,
h h h
xi+1 = xi + f (ti + , xi + f (ti , xi )) .
2 2 2
φ = a1 k1 + a2 k2 + · · · + an kn ,
Problema. Hacer una elección razonable para tener relaciones manejables y una buena aprox-
imación a la solución. En esto consiste una de las técnicas más conocidas, nos referimos a las
técnicas de Runge–Kutta.
donde
k1 = f (ti , xi )
k2 = f (ti + p1 h, xi + q1,1 k1 h) .
1
a1 + a2 = 1
1
a2 q1,1 = = a2 p 1
2
de donde
⎧
⎨ a1 = 1 − a2
1
⎩ p1 = q1,1 = ,
2a2
donde
k1 = f (ti , xi )
k2 = f (ti + h, xi + k1 h) ,
es decir,
h
xi+1 = xi + (f (ti , xi ) + f (ti + h, xi + hf (ti , xi )) .
2
Considerando a2 = 1 nos queda a1 = 0 y p1 = q1,1 = 1/2 , y obtenemos
1
xi+1 = xi + (k1 + 4k2 + k3 )h (R-K3)
6
donde
⎧
⎨ k1 = f (ti , xi )
k = f ti + 12 h, xi + 12 k1 h
⎩ 2
k3 = f (ti + h, xi − k1 h + 2k2 h)
Sergio Plaza 228
1
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 )h (R-K4)
6
donde
⎧
⎪
⎪
k1 = f (ti , xi )
⎨
k2 = f ti + h2 , xi + 12 k1 h
⎪
⎪ k = f ti + h2 , xi + 12 k2 h
⎩ 3
k4 = f (ti + h, xi + k3 h)
1
xi+1 = xi + (7k1 + 32k3 + 12k4 + 32k5 + 7k6 )h (R-K6) (método de Butcher)
90
donde
⎧
⎪
⎪ k1 = f (ti , xi )
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ 1 1
⎪
⎪ k2 = f (ti + h, xi + k1 h)
⎪
⎪ 4 4
⎪
⎪
⎪
⎪
⎪
⎪ 1 1 1
⎪
⎪
⎪
⎪
k3 = f (ti + h, xi + k1 h + k2 h)
⎨ 4 8 8
⎪
⎪ h 1
⎪
⎪ k4 = f (ti + , xi − k2 h + k3 h)
⎪
⎪ 2 2
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ 3 3 9
⎪
⎪ k5 = f (ti + h, xi + k1 h + k4 h)
⎪
⎪ 4 16 16
⎪
⎪
⎪
⎪
⎪
⎪ 3 2 12 12 8
⎩ k6 = f (ti + h, xi − k1 h + k2 h + k3 h − k4 h + k5 h) .
7 7 7 7 7
x = f (t, x) , atb
x(a) = α.
Un método multipaso de paso m para resolver este problema de valor inicial es uno cuya
ecuación de diferencia para obtener xi+1 en el punto ti+1 puede representarse por la siguiente
Sergio Plaza 229
b−a
para i = m−1, m, . . . , N −1 , donde h = , a0 , a1 , . . . , am−1 y b0 , b1 , . . . , bm son constantes
N
y se especifican los valores iniciales
⎧
⎨ x0 = α, x1 = α1 , x2 = α2 , x3 = α3
h (9.4)
⎩ xi+1 = xi + [ 55f (ti , xi ) − 59f (ti−1 , xi−1 ) + 37f (ti−2 , xi−2 ) − 9f (ti−3 , xi−3 ) ]
24
⎧
⎨ x0 = α, x1 = α1 , x2 = α2
h (9.5)
⎩ xi+1 = xi + [ 9f (ti+1 , xi+1 ) − 19f (ti , xi ) − 5f (ti−1 , xi−1 ) + f (ti−2 , xi−2 ) ]
24
donde i = 0, 1, . . . , m − 1 .
o por el método de Euler modificado
Sergio Plaza 230
⎧
⎨ x0 = α
h
⎩ xi+1 = xi + [f (ti , xi ) + f (ti+1 , xi + hf (ti xi ))]
2
con i = 0, 1, . . . , m − 1 ,
o por el método de Heun
⎧
⎨ x0 = α
h 2 2
⎩ xi+1 = xi + [f (ti , xi ) + 3f (ti + h, xi + hf (ti , xi ))]
4 3 3
o por el método de Runge–Kutta de orden 4
⎧
⎪
⎪ x0 = α
⎪
⎪
⎪
⎪ h 1
⎪
⎪ k1 = hf (ti + , xi + k1 )
⎪
⎪ 2 2
⎪
⎪
⎪
⎪
⎪
⎨ h 1
k3 = hf (ti + , xi + k2 )
2 2
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ k4 = hf (ti+1 , xi + k3 )
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎩ xi+1 1
= xi + (k1 + 2k2 + 2k3 + k4 )
6
donde i = 0, 1 . . . , m − 1
En el problema (9.8)
x = f (t, x) , atb
x(a) = α.
Si
xi+1 = am−1 xi + am−2 xi−1 + · · · + a0 xi−(m−1) + h[bm f (ti+1 , xi+1 ) + bm−1 f (ti , xi ) +
· · · + b0 f (ti−(m−1) , xi−(m−1) )]
i = m − 1, m, . . . , N − 1 .
Tenemos los siguientes casos particulares.
Sergio Plaza 231
x0 = α, x1 = α1
h
xi+1 = xi + (3f (ti , xi ) − f (ti−1 , xi−1 ))
2
i = 1, 2, . . . , N − 1 . Su error de truncamiento local es
5
τi+1 (h) = x (μi )h2 , μi ∈]ti−1 , ti+1 [ .
12
⎧
⎨ x0 = α, x1 = α1 , x2 = α2
h
⎩ xi+1 = xi + [ 23f (ti , xi ) − 16f (ti−1 , xi−1 ) + 5f (ti−2 , xi−2 ) ]
12
i = 2, 3, . . . , N − 1 . Su error de truncamiento local es
3 (4)
τi+1 (h) = x (μi )h3 , μi ∈]ti−2 , ti+1 [ .
8
⎧
⎨ x0 = α, x1 = α1 , x2 = α2 , x3 = α3
h
⎩ xi+1 = xi + [ 55f (ti , xi ) − 59f (ti−1 , xi−1 ) + 37f (ti−2 , xi−2 ) − 9f (ti−3 , xi−3 )]
24
i = 3, 4, . . . , N − 1 . Su error local de truncamiento es dado por
251 (5)
τi+1 (h) = x (μi )h4 , μi ∈]ti−3 , ti+1 [ .
720
⎧
⎪
⎪ x0 = α, x1 = α1 , x2 = α2 , x3 = α3 , x4 = α4
⎪
⎪
⎨
h
⎪
⎪ xi+1 = xi + [1901f (ti, xi ) − 2774f (ti−1 , xi−1 ) + 2616f (ti−2 , xi−2 ) − 1274f (ti−3, xi−3 )
⎪
⎪ 720
⎩
+251f (ti−4, xi−4 )]
95 (6)
τi+1 (h) = x (μi )h5 , μi ∈]ti−4 , ti+1 [
288
Los métodos implı́citos se derivan usando (ti+1 , f (ti+1 , x(ti+1 ))) como un nodo de interpo-
lación adicional en el cual se usa una aproximación de la integral
Sergio Plaza 232
ti+1
f (t, x(t))dt ,
ti
la cual se puede aproximar por diferentes métodos, por ejemplo, regla de los trapecios, regla de
Simpson, o regla de Simpson 38 , ... .
⎧
⎨ x0 = α, x1 = α1
h
⎩ xi+1 = xi + [ 5f (ti+1 , xi+1 ) + 8f (ti , xi ) − f (ti−1 , xi−1 ) ]
12
1 (4)
τi+1 (h) = − x (μi )h3 , μi ∈]ti−1 , ti+1 [ .
24
⎧
⎨ x0 = α, x1 = α1 , x2 = α2
h
⎩ xi+1 = xi + [9f (ti+1 , xi+1 ) + 19f (ti , xi ) − 5f (ti−1 , xi−1 ) + f (ti−2 , xi−2 )]
24
19 (5)
τi+1 (h) = − x (μi )h4 , μi ∈]ti−2 , ti+1 [ .
720
⎧ du
⎪
⎪
1
= f1 (t, u1 , . . . , um )
⎪
⎪
⎪
⎪
dt
⎪
⎪
⎪
⎨ du2
(S1) = f2 (t, u1 , . . . , um ) (9.6)
⎪
⎪ dt
⎪
⎪ ..
⎪
⎪ .
⎪
⎪
⎪
⎩ dum = fm (t, u1 , . . . , um )
dt
con a t b y condiciones inicales
-
m
|f (t, u1 , . . . , um ) − f (t, z1 , . . . , zm )| L |ui − zi | ,
i=1
Observemos que si
∂f
∂ui (t, u1 , . . . , um )
L
Para encontrar aproximaciones a las soluciones del sistema (9.6) numéricamente, podemos
utilizar, por ejemplo, el método de Runge–Kutta
⎧
⎪
⎪ x0 = α
⎪
⎪
⎪
⎪ k1 = f (ti , xi )
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ h 1
⎪
⎨ k2 = f ti + , xi + k1
2 2
⎪
⎪
⎪
⎪
⎪
⎪ h 1
⎪
⎪ k3 = f ti + , xi + k2
⎪
⎪ 2 2
⎪
⎪
⎪
⎪
⎪
⎩
k4 = f (t1 + h, xi + k3 )
y entonces
h
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 ) , i = 0, 1, . . . , N − 1
6
que resuelve numéricamente el problema
x (t) = f (t, x) , atb
x(a) = α.
Sergio Plaza 234
b−a
Este se generaliza como sigue. Sea N 1 y sea h = . La partición de [a, b] en N
N
subintervalos con nodos
tj = a + jh, j = 0, 1, . . . , N
es dada.
Usaremos la notación xi,j para denotar una aproximación a ui (tj ) , j = 0, 1, . . . , N , i =
1, . . . , m , es decir, xi,j aproxima la i–ésima solución ui (t) de (9.6) en el punto tj de los
nodos. Usamos la notación
⎧
⎪
⎪ k1,i = hf (tj , x1,j , x2,j , . . . , xm,j )
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ h 1 1 1
⎪
⎪ k2,i = hf tj + , x1,j + k1,1 , x2,j + k1,2 , . . . , um,j + k1,m
⎪
⎨ 2 2 2 2
⎪
⎪
⎪
⎪ h 1 1 1
⎪
⎪ k3,i = hfi tj + , x1,j + k2,1 , x2,j + k2,2 , . . . , xm,j + k2,m
⎪
⎪ 2 2 2 2
⎪
⎪
⎪
⎪
⎪
⎩
k4,i = hfi tj + h, x1,j + k3,1 , x2,j + k3,2 , . . . , xm, j + k3,m
1
xi,j+1 = xi,j + (k1,i + 2k2,i + 2k3,i + k4,i .
6
Note que antes de determinar los términos k2,i deben calcularse todos los valores k
,1 , k
,2 , . . . , k
,m .
En general, estos deben calcularse antes que cualquiera de las expresiones k
+1,i .
x(m) (t) = f (t, x, x , . . . , x(m−1) ) , atb
(OS1)
x(a) = α1 , x (a) = α2 , . . . , x(m−1) (a) = αm
⎧
⎪
⎪
u1 (t) = x(t)
⎪
⎨ u2 (t) = x (t)
⎪ ..
⎪
⎪ .
⎩
um (t) = x(m−1) (t)
⎧ du1 dx
⎪
⎪ = = u2
⎪
⎪
⎪
⎪
dt dt
⎪
⎪
⎪
⎪
⎪
⎪ du2 dx
⎪
⎪ = = x = u3
⎪
⎪ dt dt
⎪
⎪
⎪
⎪
⎨ ..
.
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ dum−1 dx (m−2)
⎪
⎪ = x(m−1) = um
⎪
⎪
=
⎪
⎪ dt dt
⎪
⎪
⎪
⎪
⎪
⎪ dx (m−1)
⎩ dum
= = x(m) = f (t, u1 , u2 , . . . , um )
dt dt
con condiciones iniciales
⎧
⎪
⎪
u1 (a) = x(a) = α1
⎪
⎨ u2 (a) = x (a) = α2
⎪ ..
⎪
⎪ .
⎩
um (a) = x(m−1) (a) = αm
y podemos aplicar lo anterior para resolver este sistema y ası́ obtener la solución del problema
(9.7).
⎧
⎨ x = f (t, x, x ) , atb
x(a) = α (9.7)
⎩
x(b) = β.
∂f
(i) (t, x, x ) > 0 para todo (t, x, x ) ∈ D , y
∂x
(ii) existe una constante M 0 tal que
∂f
∂x (t, x, x )
M
⎧ −tx
⎨ x +e + sen(x ) = 0, 1t2
x(1) = 0
⎩
x(2) = 0
te−tx > 0 en D y
∂x
∂f
(t, x, x )
= |− cos(x )| 1 .
la ecuación x = f (t, x, x ) es llamada lineal. Este tipo de ecuaciones ocurre frecuentemente
en problemas de la Fı́sica.
⎧
⎨ x = p(t)x + q(t)x + r(t) atb
x(a) = α
⎩
x(b) = β
Para aproximar la solución única garantizada bajo las hipótesis del corolario anterior, primero
consideramos los problemas de valores iniciales
Sergio Plaza 237
⎧
⎨ x = p(t)x + q(t)x + r(t) , atb
(P V I, 1) x(a) = α
⎩
x (a) = 0
⎧
⎨ x = p(t)x + q(t)x , atb
(P V I, 2) x(a) = 0
⎩
x (a) = 1.
Bajos las hipótesis del corolario, ambos problemas tienen solución única. Si x1 (t) denota la
solucón del (P V I, 1) y x2 (t) denota la solución del (P V I, 2), entonces si x(t) = x1 + Cx2 (t)
es una solución de la ecuación x = p(t)x + q(t)x + r(t) , la verificación de esto es inmediata.
Usando las condiciones de frontera, x(q) = x1 (a) + Cx2 (a) = α + 0 = α y x(b) = x1 (b) +
1 (b)
Cx2 (b) = β , por lo tanto C = β−x x2 (b) . En conclusión, la solución buscada es
β − x1 (b)
x(t) = x1 (t) + x2 (t) , si x2 (b) = 0,
x2 (b)
es la solución del problema con valores en la frontera que estamos estudiando. En las hipótesis
del Corolario 9.1 no se da el caso problemático de tener x2 (t) ≡ 0 ,
Ejemplo 74
⎧ 2t 2
⎨ x = 1+t
2x − 1+t2 x +1 0t4
x(0) = 1.25
⎩
x(4) = −0.95
Otra forma para aproximar la solución del problema con valores en la frontera
⎧
⎨ −x + p(t)x + q(t)x + r(t) = 0, atb
x(a) = α
⎩
x(b) = β
⎧
⎨ x0 = t
x = x1
⎩ 3
x4 = x2 ,
⎧
⎨ x = f (t, x, x ) , atb
(P V I, 3) x(a) = α
⎩
x (a) = 0
y
Sergio Plaza 238
⎧
⎨ x = f (t, x, x ) , atb
(P V I, 4) x(a) = α
⎩
x (a) = 1.
⎧
⎪
⎪ x0 = 1 x0 (a) = a
⎪
⎪
⎪
⎨ x1
= x3 x1 (a) = α
x2 = x4 x2 (a) = α
⎪
⎪
⎪ x3
⎪ = f (x0 , x1 , x3 ) x3 (a) = 0
⎪
⎩
x4 = f (x0 , x2 , x4 ) x4 (a) = 1
⎧
⎨ x = f (t, x, x ) , atb
x(a) = α
⎩
x(b) = β.
⎧
⎨ x = f (t, x, x ) , atb
x(a) = α
⎩
x (a) = s
⎧
⎨ x = f (t, x, x ) , atb
x(a) = α
⎩
x (a) = s0 .
g(b, s) = x(b, s) − β = 0
(ecuación no lineal). Podemos usar, por ejemplo el método de la secante, con valores iniciales
s0 y s1 ,
o el método de Newton
x(b, sk−1 ) − β
sk = sk−1 − d
ds x(b, sk−1 )
d
aquı́ el problema es obtener una expresión explicı́ta para ds x(b, s) .
⎧
⎨ x = p(t)x + q(t)x + r(t) , atb
x(a) = α
⎩
x(b) = β
b−a
Dividimos el intervalo [a, b] en N +1 puntos ti = a+ih , i = 0, 1, . . . , N +1 , donde h = N .
Para i = 1, 2, . . . , N la ecuación diferencial a aproximar es
1 h2
x (ti ) = 2
(x(ti+1 ) − 2x(ti ) + x(ti−1 )) − x(4) (θi ) ,
h 12
donde θi ∈ ]ti−1 , ti+1 [ (fórmula de las diferencias centradas). Analogamente,
1 h2
x (ti ) = (x(ti+1 ) − x(ti−1 )) − x (ξi ) ,
2h 6
donde ξi ∈ ]ti−1 , ti+1 [ . Reemplazando, obtenemos
Sergio Plaza 240
x(ti+1 ) − 2x(ti ) + x(ti−1 ) x(ti+1 ) − x(ti−1 )
= p(ti ) + q(ti )x(ti ) + r(ti )
h2 2h
h2
− (2p(ti )x (ξi ) − x(4) (θi )) .
12
Un método de diferencias finitas con error de truncamiento de orden O(h2 ) y usando la
notación wj = x(tj ) , junto con las condiciones de frontera x(a) = α y x(b) = β , se obtiene
w0 = α
2wi − wi+1 − wi−1 wi+1 − wi−1
+ p(ti ) + q(ti )wi = −r(ti )
h2 2h
wN +1 = β
h h
− 1 + p(ti ) wi−1 + (2 + h q(ti ))wi − 1 − p(ti ) wi+1 = −h2 r(ti )
2
2 2
Aw = b
donde
⎛ ⎞
2 + h2 q(t1 ) −1 + h2 p(t1 ) 0 ··· 0 0
⎜ ⎟
⎜ ⎟
⎜ −1 − h p(t2 ) 2
−1 + h
··· ⎟
⎜ 2 2 + h q(t2 ) 2 p(t2 ) 0 0 ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ .. .. .. .. .. .. ⎟
A=⎜ . . . . . . ⎟
⎜ ⎟
⎜ .. .. .. .. .. .. ⎟
⎜ . . . . . . ⎟
⎜ ⎟
⎜ −1 + h2 p(tN −1 ) ⎟
⎜ ⎟
⎝ ⎠
0 ··· 0 0 −1 − h2 p(tN )) 2 + h2 q(tN )
y
⎛ ⎞
−h2 r(t1 ) + 1 + h2 p(t1 ) w0
⎛ ⎞ ⎜ ⎟
w1 ⎜ ⎟
⎜ 2
−h r(t2 ) ⎟
⎜ ⎟ ⎜ ⎟
⎜ w2 ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟
⎜ .. ⎟ ⎜ . ⎟
w=⎜ . ⎟ y b=⎜ ⎟.
⎜ ⎟ ⎜ .. ⎟
⎜ .. ⎟ ⎜ . ⎟
⎝ . ⎠ ⎜ ⎟
⎜ −h2 t(tN −1 ) ⎟
wN ⎜ ⎟
⎝ ⎠
−h2 r(tN ) + 1 − h2 p(tN ) wN +1
Sergio Plaza 241
2
El sistema tridiagonal anterior tiene solución única si h < L , donde L = max{|p(t)| : a
t b} .
⎧
⎨ x = f (t, x, x ) , atb
x(a) = α
⎩
x(b) = β.
∂f ∂f
1.- f , y
son continuas en D = {(t, x, x ) : a t b , −∞ < x < ∞ , −∞ <
∂x ∂x
x < ∞} .
∂f
2.- (t, x, x ) δ en D para algún δ > 0 .
∂x
3.- Existen
,
∂f
k
= max
(t, x, x )
: (t, x, x ) ∈ D ,
∂x
,
∂f
L
= max
(t, x, x )
: (t, x, x ) ∈ D .
∂x
x(ti+1 ) − 2x(ti ) + x(ti−1 ) x(ti+1 ) − x(ti−1 ) h2 h2
= f ti , x(ti ), − x (ξi ) + x(4) (θi )
h2 2h 6 12
w0 = α
wi+1 − 2wi + wi−1 wi+1 − wi−1
− +f ti , wi , = 0
h2 2h
wN +1 = β
w2 − α
2w1 − w2 + h2 f (t1 , w1 , )−α = 0
2h
w3 − w1
−w1 + 2w2 − w3 + h2 f (t2 , w2 , ) = 0
2h
.. .. ..
. . .
2 wN − wN −2
−wN −2 + 2wN −1 − wN + h f (tN −1 , wN −1 , ) = 0
2h
β − wN −1
−wN −1 + 2wN + h2 f (tN , wN , ) = 0
2h
y tiene solución única si y sólo si h < 2/L . Para resolver este sistema podemos usar, por
ejemplo, el método de Newton en varias variables.
x = sen(tx)
x(0) = 3
9.12 Ejercicios
Problema 9.1 El método de Adams–Bashforth de segundo orden para aproximar soluciones
de un problema de valor inicial
x = f (t, x) , a t b
x(a) = x0
es dado por
3 1
xn+1 = xn + h f (tn , xn ) − f (tn−1 , xn−1 )
2 2
n 1 , donde para n = 1 , t0 = a y t1 = t0 + h = a + h y x1 puede calcularse con cualquier
método de 1 paso, por ejemplo, Runge–Kutta, de de orden 4. Conocidos (t0 , x0 ) y t1 , x1 ) ,
calculamos (t2 , x2 ) , y ası́ sucesivamente usando el método de Adams–Bashforth. Use lo anterior
para aproximar la solución al problema de valor inicial
⎧ t
⎨ 1
x = −2tx + x(s)ds
102 0
⎩
x(0) = 1,
donde para aproximar la integral del lado derecho se usa la regla de los trapecios.
Problema 9.4 En un estudio de una población de ratones de campo se encuentra que ella
evoluciona de acuerdo a la siguiente ecuación diferencial
dN (t)
= AN (t) − B(t)N (t)1.1
dt
N (t) indica la cantidad de inviduos en el tiempo t . Se determina experimentalmente que
A = 2 y se conocen las siguientes mediciones para B(t) (t medido en alguna unidad razonable
de tiempo)
t 0 4 8 12
B 0.70 0.04 0.56 0.70
Sergio Plaza 244
(a) Usando interpolación de Lagrange, encuentre una aproximación polinomial para B(t) .
(b) Usando la aproximación polinomial para B(t) encontrada en la parte (a), encuentre una
aproximación en el intervalo [0, 0.6] de la solución de la ecuación diferencial usando el
método de Euler con h = 0.2 y dada la población inicial de ratones N (0) = 100 .
se propone usar el método de diferencias finitas sobre la malla {0, 14 , 12 , 34 , 1}, es decir, el tamaño
de paso es h = 14 . Se les recuerda que las fórmulas de diferencias finitas centradas son:
(a) Escriba el sistema lineal que se obtiene al aplicar estas fórmulas en la ecuación diferencial
con valor en la frontera dada anteriormente.
(b) Para resolver dicho sistema se propone usar el método iterativo de Gauss-Seidel, escriba
cómo quedarı́a dicho método para el sistema obtenido en la parte (a) y diga si el método
(0) (0) (0)
converge o no. Justifique su respuesta. Partiendo del punto ω (0) = (ω1 , ω2 , ω3 ) =
(0, 0, 0), obtenga los puntos ω (1) , ω (2) y ω (3) es decir, las tres primeras iteraciones del
método de Gauss-Seidel.
(c) Tomando ω (3) como la solución del sistema lineal obtenido en la parte (a), obtenga un
polinomio de interpolación de grado 3 que aproxime la solución de la ecuación diferencial
x(t) en el intervalo [ 14 , 12 ].
Índice Alfabético
Método de bisección, 24
Método de la secante, 37
Método de Newton, 27
Método de Newton en varias variables, 33
Métodos iterativos de punto fijo, 39
Método de la posición falsa, 39
Mayor entero positivo representable en forma
exacta, 6
Representación binaria, 2
Representación decimal, 1
Representación en una base β > 1, 2
Representación punto flotante de números, 1
245
Referencias
[1] Kendall Atkison, Elementary numerical analysis. John Willey & Sons, Inc. 1985.
[2] Richard L. Burden, J. Douglas Faires, Análisis numérico. (Séptima edición) International
Thomson Editores, 2002.
[3] Steven C. Chapra, Raymond P. Canale, Métodos numéricos para ingenieros. McGraw–Hill,
1999.
[4] Lars Elden, Linde Wittmeyer–Koch, Hans Bruun Nielsen, Introduction to numerical
computation–analysis and matlab illustrations. Studentlitteratur AB, 2004.
[5] Curtis F. Gerald, Patrick O. Wheatley, Análisis numérico con aplicaciones. (Sexta edición).
Pearson Educación, 2000.
[7] David Kincaid, Ward Cheney, Análisis numéricos: las matemáticas del cálculo cientı́fico.
Addison–Wesley Iberoamericana, 1994.
[8] John Mathews, Kurtis D. Fink, Métodos Numéricos con MatLab. Prentice Hall, 2003.
[10] Shoichiro Nakamura, Análisis numérico y visualización con Matlab. Pearson Educación,
1997.
[13] J. Stoer, R. Burlirshc, Introduction to numerical analysis. (Third edition). Text in Applied
Mathematics 12, Springer, 2002.
[15] G. W. Stewart, Afternotes goes to graduate school: lectures on advanced numerical analysis.
SIAM, 1998.
246