Sei sulla pagina 1di 9

Método Newton-Raphson

El método de Newton-Raphson es un método abierto, en el sentido de que su convergencia global no está


garantizada. La única manera de alcanzar la convergencia es seleccionar un valor inicial lo suficientemente cercano
a la raíz buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al cero (denominado
punto de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza
de la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz,
entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un valor supuesto
cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta tangente en ese valor
supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor aproximación de la raíz que el
valor anterior. Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente.

Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y
definimos para cada número natural n

Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable con forma
analítica o implícita conocible. Existen variantes del método aplicables a sistemas discretos que permiten
estimar las raíces de la tendencia, así como algoritmos que extienden el método de Newton a sistemas
multivariables, sistemas de ecuaciones, etc.

Método Newton-Raphson
Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de Newton-Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al desarrollo geométrico
del método de la secante, podría pensarse en que si los puntos de iteración están lo suficientemente cerca (a
una distancia infinitesimal), entonces la secante se sustituye por la tangente a la curva en el punto. Así pues, si
por un punto de iteración trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo
punto de iteración se tomará como la abscisa en el origen de la tangente (punto de corte de la tangente con el
eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza por una recta tal que contiene al
punto ( , ( )) y cuya pendiente coincide con la derivada de la función en el punto, . La nueva
aproximación a la raíz, , se logra de la intersección de la función lineal con el eje X de abscisas.
Matemáticamente:

Ilustración de una iteración del método de Newton (la función f se muestra en azul y la línea de la tangente en rojo).
Vemos que es una aproximación mejor que para la raíz de la función .
En la ilustración adjunta del método de Newton se puede ver que es una mejor aproximación
que para el cero (x) de la función f.

Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de Taylor, para un
entorno del punto :

Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en :

Si además se acepta que tiende a la raíz, se ha de cumplir que , luego,


sustituyendo en la expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un
método de iteración de punto fijo. Así, dada la ecuación , se puede considerar el
siguiente método de iteración de punto fijo:

Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser única, se escoge de la forma más sencilla:

Por tanto, imponiendo subíndices:

Expresión que coincide con la del algoritmo de Newton-Raphson

Método de la secante

Dos primeras iteraciones del método de la secante.

En análisis numérico el método de la secante es un método para encontrar los ceros de una función de forma
iterativa.

Es una variación del método de Newton-Raphson donde en vez de calcular la derivada de la función en el punto de
estudio, teniendo en mente la definición de derivada, se aproxima la pendiente a la recta que une la función
evaluada en el punto de estudio y en el punto de la iteración anterior. Este método es de especial interés cuando el
coste computacional de derivar la función de estudio y evaluarla es demasiado elevado, por lo que el método de
Newton no resulta atractivo.

En otras palabras, el método de la secante es un algoritmo de la raíz de investigación que utiliza una serie de
raíces de las líneas secantes para aproximar mejor la raíz de una función f. El método de la secante se puede
considerar como una aproximación en diferencias finitas del método de Newton-Raphson. Sin embargo, este
método fue desarrollado independientemente de este último.

El método
El método se define por la relación de recurrencia:

Como se puede ver, este método necesitará dos aproximaciones iniciales de la raíz para poder inducir una
pendiente inicial.

Derivación del método


El método se basa en obtener la ecuación de la recta que pasa por los puntos (xn−1, f(xn−1)) y (xn, f(xn)). A dicha
recta se le llama secante por cortar la gráfica de la función. En la imagen de arriba a la derecha se toman los
puntos iniciales x0 y x1, se construye una línea por los puntos (x0, f(x0)) y (x1, f(x1)). En forma punto-pendiente,
esta línea tiene la ecuación mostrada anteriormente. Posteriormente se escoge como siguiente elemento de la
relación de recurrencia, xn+1, la intersección de la recta secante con el eje de abscisas obteniendo la fórmula, y
un nuevo valor. Seguimos este proceso, hasta llegar a un nivel suficientemente alto de precisión (una diferencia
lo suficientemente pequeñas entre xn y xn-1).

Convergencia
El orden de convergencia de este método, en un punto cercano a la solución, es donde

es el número áureo, por lo que se trata de una convergencia superlineal inferior a la del método de Newton-
Raphson. En caso de que la aproximación inicial sea demasiado lejana o la raíz no sea simple, este
método no asegura la convergencia y tiene un comportamiento similar al de Newton-Raphson.

Comparación con otros métodos de búsqueda de raíces


El método de bisección necesita de muchas iteraciones comparado con el método de la secante, ya que el
proceso que éste sigue es mucho más preciso que el de bisección, el cual solo divide por mitades
sucesivamente hasta dar con un valor aproximado al real y por consecuente conlleva un número
significativamente mayor de iteraciones.

El método de la regla falsa utiliza la misma fórmula que el método de la secante. Sin embargo, no se aplica
la fórmula en xn−1 y xn, como el método de la secante, pero en xn y en la última iteración xk tal que f(xk)
y f(xn) tiene un signo diferente. Esto significa que el método de regla falsa siempre converge.

La fórmula de recurrencia del método de la secante se puede derivar de la fórmula para el método de
Newton-Raphson:

utilizando la aproximación de diferencias finitas:

Si comparamos el método de Newton-Raphson con el método de la secante, vemos que el método


de Newton-Raphson converge más rápido (para 2 en contra α ≈ 1,6). Sin embargo, el método de
Newton-Raphson requiere la evaluación de ambos f y su derivada en cada paso, mientras que el
método de la secante sólo requiere la evaluación de f. Por lo tanto, el método de la secante puede
muy bien ser más rápido en la práctica.

El método

Las primeras dos iteraciones de regula falsi. La curva roja muestra la función f; las líneas azules, las secantes.

Como en el método de bisección, se parte de un intervalo inicial [a0,b0] con f(a0) y f(b0) de signos opuestos, lo que
garantiza que en su interior hay al menos una raíz (véase Teorema de Bolzano). El algoritmo va obteniendo
sucesivamente en cada paso un intervalo más pequeño [ak, bk] que sigue incluyendo una raíz de la función f.

A partir de un intervalo [ak, bk] se calcula un punto interior ck:

Dicho punto es la intersección de la recta que pasa por (a,f(ak)) y (b,f(bk)) con el eje de abscisas (igual a como
se hace en el método de la secante).

Se evalúa entonces f(ck). Si es suficientemente pequeño, ck es la raíz buscada. Si no, el próximo intervalo
[ak+1,bk+1] será:

 [ak, ck] si f(ak) y f(ck) tienen signos opuestos;


 [ck, bk] en caso contrario.

Análisis del método


Se puede demostrar que bajo ciertas condiciones el método de la falsa posición tiene orden de
convergencia lineal, por lo que suele converger más lentamente a la solución de la ecuación que el método de
la secante, aunque a diferencia de en el método de la secante el método de la falsa posición siempre converge
a una solución de la ecuación.

El algoritmo tiene el inconveniente de que si la función es convexa o cóncava cerca de la solución, el extremo
del intervalo más alejado de la solución queda fijo variando únicamente el más cercano, convergiendo muy
lentamente.

Un ejemplo de este fenómeno se da en la función:

comenzando con [−1,1]. El extremo izquierdo del intervalo, −1, nunca cambia; el extremo derecho se
aproxima a 0 linealmente.
La situación en que el método falla es fácil de detectar (el mismo extremo del intervalo se elige dos veces
seguidas) y fácil de corregir eligiendo un ck diferente, como:

restándole peso a uno de los extremos del intervalo para obligar a que el próximo ck ocurra de ese
lado de la función.

El factor 2 usado arriba, garantiza una convergencia superlineal (asintóticamente, el algoritmo


ejecuta dos pasos normales por cada paso modificado). Hay otras formas que dan incluso mejores
tasas de convergencia. El ajuste mencionado arriba, y otras modificaciones similares se conocen
como Algoritmo Illinois. Ford1 resume y analiza las variantes superlineales del método regula falsi
modificado. A juzgar por la bibliografía, estos métodos eran bien conocidos en los años 1970 pero
han sido olvidados en los textos actuales.

Ejercicio de ejemplo
Utilice el método de la secante para encontrar una raíz real de la ecuación
polinomial: F(x)=x3+2x2+10x-20=0.

Utilizando la ecuación:

Obtenemos:

Y mediante x0=0 y x1=1 se calcula x2

Los valores posteriores son los siguientes:


Ahi tenemos el resultado, cuando ≤

Comprobando el resultado graficando la función utilizando software obtenemos:

Si bien no se converge a la raíz tan rápido como resolviéndolo utilizando el método


Newton-Raphson, la velocidad de convergencia no es tan lenta como resolviéndolo
por el método de punto fijo; entonces se tiene para este ejemplo una velocidad de
convergencia intermedia

Metodo de bisección
Este es uno de los métodos más sencillos y de fácil intuición para resolver ecuaciones en una variable, también
conocido como Método de Intervalo Medio.1 Se basa en el teorema del valor intermedio (TVI), el cual establece que
toda función continua f en un intervalo cerrado [a,c] toma todos los valores que se hallan entre f(a) y f(b). Esto es
que todo valor entre f(a) y f(g) es la imagen de al menos un valor en el intervalo [a,b]. En caso de que f(a) y f(b)
tengan signos opuestos, el valor cero sería un valor intermedio entre f(j) y f(e), por lo que con certeza existe un p en
[a,b] que cumple f(p)=0. De esta forma, se asegura la existencia de al menos una solución de la ecuación f(a)=0.

El método consiste en lo siguiente:

 Debe existir seguridad sobre la continuidad de la función f(x) en el intervalo [a,b]


 A continuación se verifica que
 Se calcula el punto medio m del intervalo [a,b] y se evalúa f(m) si ese valor es igual a cero, ya hemos
encontrado la raíz buscada
 En caso de que no lo sea, verificamos si f(m) tiene signo opuesto con f(a) o con f(b)
 Se redefine el intervalo [a, b] como [a, m] ó [m, b] según se haya determinado en cuál de estos intervalos
ocurre un cambio de signo
 Con este nuevo intervalo se continúa sucesivamente encerrando la solución en un intervalo cada vez más
pequeño, hasta alcanzar la precisión deseada

En la siguiente figura se ilustra el procedimiento descrito.

El método de bisección es menos eficiente que el método de Newton, pero es mucho más seguro para garantizar la
convergencia. Si f es una función continua en el intervalo [a,b] y f(a)f(b) < 0, entonces este método converge a la
raíz de f. De hecho, una cota del error absoluto es:

en la n-ésima iteración. La bisección converge linealmente, por lo cual es un poco lento. Sin embargo, se garantiza
la convergencia si f(a) y f(b) tienen distinto signo.
Si existieran más de una raíz en el intervalo entonces el método

Ejemplo x3 + x + 16 = 0

# Fxn Dfxn Nuevo Xm


1 18 4 -3.5
2 -30.375 37.75 -2.6953642384106
3 -6.2771541041392 22.794965133108 -2.419989651633
4 -0.59229583988115 18.569049742033 -2.3880927130115
5 -0.0073539466744812 18.108960417816 -2.3876866186524
6 -1.1814129692311E-6 18.103142166676 -2.3876865533923

Hemos terminado de analizar el método de la Newton Rapshon, en este ejemplo con un error
de 0.0001; se encuentra la última raiz(Xm): -2.3876865533923 con 6 iteracciones

# Xi Xd Fxi Fxd Nuevo Xm Error


1 -3 -2 -14 6 -2.5 -0.5
2 -2.5 -2 -2.125 6 -2.25 -0.25
3 -2.5 -2.25 -2.125 2.359375 -2.375 -0.125
4 -2.5 -2.375 -2.125 0.228515625 -2.4375 -0.0625
5 -2.4375 -2.375
-0.919677734375 0.228515625 -2.40625 -0.03125
6 -2.40625 -2.375
-0.33853149414062 0.228515625 -2.390625 -0.015625
-
7 -2.390625 -2.375 0.228515625 -2.3828125 -0.0078125
0.053256988525391
- 0.0880656242370
8 -2.390625 -2.3828125 -2.38671875 -0.00390625
0.053256988525391 61
- 0.0175135731697
9 -2.390625 -2.38671875 -2.388671875 -0.001953125
0.053256988525391 08
1 - - 0.0175135731697
-2.38671875 -2.3876953125 -0.0009765625
0 2.388671875 0.017844371497631 08
- -
1 0.0175135731697
2.387695312 -2.38671875 0.000158567912876 -2.38720703125 -0.00048828125
1 08
5 61
- -
1 0.0086792100919 - -
2.387695312 -2.38720703125 0.000158567912876
2 411 2.387451171875 0.000244140625
5 61
- - - -
1 - 0.0042607479990
2.387695312 0.000158567912876 2.387573242187 0.000122070312
3 2.387451171875 693
5 61 5 5
- - - -
1 0.0020511967759 -6.103515625E-
2.387695312 2.387573242187 0.000158567912876 2.387634277343
4 376 5
5 5 61 8

Hemos terminado de analizar el método de la bisección, en este ejemplo con un error de


0.0001; se encuentra la última raiz(Xm): -2.3876647949219 con 14 iteracciones.
X Xd Fxi Fxd Nuevo Xm Error
i
1 -3 -2 -14 6 -2.3 -0.3
2 -3 -2.3 -14 1.533 -2.51 -0.21
- -
3 -2.51 -2.3 -2.323251 1.533 2.32072555205 0.02072555205047
05 3
- - -
4 -2.51 2.32072555205 -2.323251 1.1803871495748 2.39596902782 0.07524347577650
05 7 6
- - - - -
5 2.39596902782 2.32072555205 0.1504307540829 1.1803871495748 2.34607532508 0.02534977303712
7 05 1 76 3
- - - - -
0.7409631953098
6 2.39596902782 2.34607532508 0.1504307540829 2.39032922744 0.04425390235313
7
7 76 1 07 5
- - - - -
0.7409631953098
7 2.39032922744 2.34607532508 0.0478907448303 2.38286098300 0.03678565791796
7
07 76 9 56 9
- - - - -
0.0871912946688
8 2.39032922744 2.38286098300 0.0478907448303 2.38987583579 0.00701485278637
52
07 56 9 19 51
- - - - -
0.0871912946688
9 2.38987583579 2.38286098300 0.0396672312095 2.38738885435 0.00452787134857
52
19 56 49 41 32
- - - - -
1 0.0053886529350
2.38987583579 2.38738885435 0.0396672312095 2.38909818472 0.00170933037316
0 926
19 41 49 73 88
- - - - -
1 0.0053886529350
2.38909818472 2.38738885435 0.0255692380879 2.38759328909 0.00020443474381
1 926
73 41 72 8 393
- - - - -
1 0.0016883143877
2.38909818472 2.38759328909 0.0255692380879 2.38785523718 0.00026194808438
2 866
73 8 72 23 618
- - - - -
1 0.0016883143877
2.38785523718 2.38759328909 0.0030539102982 2.38760951398 1.6224887399829E
3 866
23 8 061 54 -5

Hemos terminado de analizar el método de la Posición Falsa, en este ejemplo con un error
de 0.0001; se encuentra la última raiz(Xm): -2.3876969957131 con 13 iteracciones.
# Xi Xd Fxi Fxd Nuevo Xm Error
1 -3 -2 -14 6 -2.3 -0.3
2 -3 -2.3 -14 1.533 -2.51 -0.21
- -
3 -2.51 -2.3 -2.323251 1.533 2.32072555205 0.02072555205047
05 3
- - -
4 -2.51 2.32072555205 -2.323251 1.1803871495748 2.39596902782 0.07524347577650
05 7 6
- - - - -
5 2.39596902782 2.32072555205 0.1504307540829 1.1803871495748 2.34607532508 0.02534977303712
7 05 1 76 3
- - - - -
0.7409631953098
6 2.39596902782 2.34607532508 0.1504307540829 2.39032922744 0.04425390235313
7
7 76 1 07 5
- - - - -
0.7409631953098
7 2.39032922744 2.34607532508 0.0478907448303 2.38286098300 0.03678565791796
7
07 76 9 56 9
- - - - -
0.0871912946688
8 2.39032922744 2.38286098300 0.0478907448303 2.38987583579 0.00701485278637
52
07 56 9 19 51
- - - - -
0.0871912946688
9 2.38987583579 2.38286098300 0.0396672312095 2.38738885435 0.00452787134857
52
19 56 49 41 32
- - - - -
1 0.0053886529350
2.38987583579 2.38738885435 0.0396672312095 2.38909818472 0.00170933037316
0 926
19 41 49 73 88
- - - - -
1 0.0053886529350
2.38909818472 2.38738885435 0.0255692380879 2.38759328909 0.00020443474381
1 926
73 41 72 8 393
- - - - -
1 0.0016883143877
2.38909818472 2.38759328909 0.0255692380879 2.38785523718 0.00026194808438
2 866
73 8 72 23 618
- - - - -
1 0.0016883143877
2.38785523718 2.38759328909 0.0030539102982 2.38760951398 1.6224887400274E
3 866
23 8 061 54 -5

Hemos terminado de analizar el método de la secante, en este ejemplo con un error de


0.0001; se encuentra la última raiz(Xm): -2.3876969957131 con 13 iter

Potrebbero piacerti anche