Sei sulla pagina 1di 6

Trabajo de anlisis numrico

(interpolacin polinomial,
solucin de sistemas de
ecuaciones)

Presentado por: Pedro Luis


Coronado Mendoza

Presentado a: Jos Luis


Consuegra
INTERPOLACIN As que en la ecuacin de la recta
POLINOMIAL y =m(x x0) + y0 podemos sustituir m y
obtener
El problema de la interpolacin consiste
en estimar el valor de una funcin en un y = P(x) = y0 + (y1 y0) x x0
punto a partir de valores conocidos en X1 x0

puntos cercanos. En el caso de la


interpolacin polinmica, la funcin
Desventajas de su uso
incgnita se sustituye por un polinomio
Si se aumenta el nmero de puntos a
que coincide con aquella en los puntos
interpolar (o nodos) con la intencin de
conocidos. Se eligen los polinomios
mejorar la aproximacin a una funcin,
porque son fciles de evaluar y por el
tambin lo hace el grado del polinomio
hecho fundamental de que dados n+1
interpolador as obtenido, por norma
puntos de abscisa distinta, (x0, y0), (x1,
general. De este modo, aumenta la
y1),..., (xn, yn), existe exactamente un
dificultad en el clculo, hacindolo poco
polinomio Pn(x) de grado no superior a n,
operativo manualmente a partir del grado
que pasa por dichos puntos, es decir, tal
4, dado que no existen mtodos directos
que:
de resolucin de ecuaciones de grado 4,
Pn(xi) = yi, i=0,1,2...,n. salvo que se puedan tratar como
ecuaciones bicuadradas, situacin
extremadamente rara.
INTERPOLACIN POLINOMIAL
Otra gran desventaja, respecto a otros
LAGRANGE
mtodos de interpolacin, es la necesidad
Es una forma de presentar el polinomio de recalcular todo el polinomio si se vara
que interpola un conjunto de puntos dado. el nmero de nodos.

Interpolar significa estimar el valor


desconocido de una funcin en un punto, INTERPOLACIN POLINOMIAL
tomando una media ponderada de sus MNIMOS CUADRADOS
valores conocidos en puntos cercanos al
dado. Es una tcnica de anlisis numrico
En la interpolacin lineal se utiliza un enmarcada dentro de la optimizacin
segmento rectilneo que pasa por dos matemtica.
puntos que se conocen. La pendiente de la Este mtodo, intenta minimizar la suma
recta que pasa por dos puntos (x0, y0) y de cuadrados de las diferencias en las
(x1, y1) es ordenadas (llamadas residuos) entre los
puntos generados por la funcin elegida y
m = y1 y0 los correspondientes valores en los datos.
x1 x0 Especficamente, se llama mnimos
cuadrados promedio, cuando el nmero
de datos medidos es 1 y se usa el mtodo
de descenso por gradiente para minimizar
el residuo cuadrado. Se puede demostrar
que LMS minimiza el residuo cuadrado
esperado, con el mnimo de operaciones Este conjunto es otra base del espacio de
(por iteracin), pero requiere un gran <n[x] por tener n + 1 elementos
nmero de iteraciones para converger. linealmente independientes (obsrvese
La tcnica de mnimos cuadrados se usa que con este mtodo cada problema
comnmente en el ajuste de curvas. requiere una base distinta, en funcin de
Muchos otros problemas de optimizacin los nodos xi que nos dan, y que el clculo
pueden expresarse tambin en forma de de cada sirve para el siguiente.)
mnimos cuadrados, minimizando la
energa o maximizando la entropa. Numricamente es mucho ms til la
forma de Newton del polinomio de
interpolacin. Aunque no tiene expresin
INTERPOLACIN POLINOMIAL explcita, su obtencin es ms estable que
DIFERENCIAS DIVIDIDAS DE por los mtodos anteriores, su evaluacin
NEWTON. no presenta los inconvenientes de los
polinomios de Lagrange, y sobre todo, se
Cualquier polinomio de <n[x] se puede
puede actualizar fcilmente si se aaden
expresar en forma nica como una
combinacin lineal de los monomios {1, nuevos nodos de interpolacin.
x, x2,. . ., xn}, pues son evidentemente
sistema generador y adems linealmente
independientes (luego forman una base
del espacio vectorial), la ms simple de
hecho, la base canonca.
Esta base, que es adecuada para algunas
manipulaciones inmediatas de polinomios
como (derivacin e integracin por
ejemplo), no es, sin embargo, la ms
adecuada para construir en principio el
polinomio interpolador.
Expresaremos el polinomio P(x) que
interpola a las abscisas x0, x1,. . .,
xn, como una combinacin lineal del
siguiente conjunto de
polinomios {0(x), 1(x),. .., n(x)}

Siendo:

0(x) = 1,

1(x) = (x x0),

2(x) = (x x0)(x x1),

3(x) = (x x0)(x x1)(x x2),

n(x) = (x x0)(x x1)(x x2)


(x xn1)
SOLUCIN SISTEMAS DE 1. Primero se determina la ecuacin de
recurrencia. Para ello se ordenan las
ECUACIONES ecuaciones y las incgnitas. De la
ecuacin i se despeja la incgnita i.
Para resolver un sistema de ecuaciones
En notacin matricial se escribirse como:
lineales de n ecuaciones en n
desconocidas, podemos recurrir a
x = c + Bx
diferentes mtodos.
Donde x es el vector de incgnitas.
FACTORIZACIN LU
2. Se toma una aproximacin para las
soluciones y a esta se le designa por xo
La factorizacin LU de una matriz es una
factorizacin que resume el proceso de
3. Se itera en el ciclo que cambia la
eliminacin gaussiana aplicado a la
aproximacin
matriz y que es conveniente en trminos
del nmero total de operaciones de punto
flotante cuando se desea calcular la xi+1 = c + Bxi
inversa de una matriz o cuando se
resolver una serie de sistemas de
Convergencia y convergencia en Jacobi
ecuaciones con una misma matriz de
consientes.
Uno de los principales problemas de los
mtodos iterativos es la garanta de que el
Es una forma de factorizacin de una
mtodo va a converger, es decir, va a
matriz como el producto de una matriz
producir una sucesin de aproximaciones
triangular inferior y una superior. Debido
cada vez efectivamente ms prximas a la
a la inestabilidad de este mtodo, deben
solucin.
tenerse en cuenta algunos casos
En el caso del mtodo de Jacobi no existe
especiales, por ejemplo, si uno o varios
una condicin exacta para la
elementos de la diagonal principal de la
convergencia. Lo mejor es una condicin
matriz a factorizar es cero, es necesario
que garantiza la convergencia, pero en
pre multiplicar la matriz por una o varias
caso de no cumplirse puede o no haberla
matrices elementales de permutacin.
es la siguiente:
Mtodo llamado factorizacin o con
Si la matriz de coeficientes original del
pivote. Esta descomposicin se usa en el
sistema de ecuaciones es diagonalmente
anlisis numrico para resolver sistemas
dominante, el mtodo de Jacobi seguro
de ecuaciones (ms eficientemente) o
converge.
encontrar las matrices inversas.

JACOBI GAUSS SEDIEL

El mtodo Jacobi es el mtodo iterativo El mtodo de eliminacin para resolver


para resolver sistemas de ecuaciones ecuaciones simultneas suministra
lineales ms simple y se aplica solo a soluciones suficientemente precisas hasta
sistemas cuadrados, es decir a sistemas para 15 o 20 ecuaciones. El nmero
con tantas incgnitas como ecuaciones. exacto depende de las ecuaciones de que
se trate, del nmero de dgitos que se
conservan en el resultado de las ms grande en cada ecuacin particular, y
operaciones aritmticas, y del utilizando siempre los ltimos valores
procedimiento de redondeo. Utilizando calculados para las otras incgnitas de la
ecuaciones de error, el nmero de Ecuacin.
ecuaciones que se pueden manejar se 5. Continuar iterando hasta que el valor
puede incrementar considerablemente a de cada incgnita, determinado en una
ms de 15 o 20, pero este mtodo tambin iteracin particular, difiera del valor
es imprctico cuando se presentan, por obtenido en la iteracin previa, en una
ejemplo, cientos de ecuaciones que se cantidad menor que cierto seleccionado
deben resolver simultneamente. arbitrariamente.
El mtodo de inversin de matrices tiene
limitaciones similares cuando se trabaja
con nmeros muy grandes de ecuaciones NEWTON
simultneas. Sin embargo, existen varias Consiste en elegir las coordenadas de un
tcnicas que se pueden utilizar, para punto (x1, y1) como aproximacin del
resolver grandes nmeros de ecuaciones punto de interseccin de las funciones
simultneas. Una de las tcnicas ms u(x, y) y v(x, y) que hacen que stas se
tiles es el mtodo de Gauss-Seidel. anulen.
El mtodo de Gauss-Seidel tiene la F(h) =f(x0) +h f(x0) + h2 /2 .f(x0+h)=0
desventaja de que no siempre converge a
una solucin o de que a veces converge
muy lentamente. El mtodo de Newton-Raphson (o mtodo
de linealizacion de Newton) se sustenta
La secuencia de pasos que constituyen el
en simplificar la expresin anterior
mtodo de Gauss-Seidel es la siguiente:
liberalizndola. Para ello considera que si
1. Asignar un valor inicial a cada se est suficientemente cerca de la
incgnita que aparezca en el conjunto. solucin (es decir si h es suficientemente
pequeo)
2. Partiendo de la primera ecuacin, El termino h2 2 f(x0 + _h) podr
determinar un nuevo valor para la despreciarse frente a los otros trminos de
incgnita que tiene el coeficiente ms la ecuacin. Por ello resuelve la ecuacin
grande en esa ecuacin, utilizando para lineal:
las otras incgnitas los valores supuestos.
3. Pasar a la segunda ecuacin y f(x0) + H f(x0) = 0
determinar en ella el valor de la incgnita
que tiene el coeficiente ms grande en esa De la que se obtiene que:
ecuacin, utilizando el valor calculado
para la incgnita del paso 2 y los valores
supuestos para las incgnitas restantes. H = f(x0) / f(x0)

4. Continuar con las ecuaciones restantes,


determinando siempre el valor calculado
de la incgnita que tiene el coeficiente
Bibliografa

Resolucin de Sistemas de
Ecuaciones Lineales, Tema 3

FACULTAD REGIONAL
GENERAL PACHECO,
DEPARTAMENTO DE CIENCIAS
BSICAS, UNIDAD DOCENTE
BSICA MATEMTICA,
SISTEMAS DE ECUACIONES, NO
LINEALES Ing. Jorge J. L. Ferrante,
Colaboradores Lic. Mario Di Blasi
Regner Ing. Carlos Krujovsky

Mtodos Iterativos para Resolver


Sistemas Lineales, Departamento
de Matemticas, CCIR/ITESM 17
de julio de 2009

Mtodos numricos de resolucin


de ecuaciones no lineales, Carlos
Conde y Emanuele Schiavi,
Universidad Politcnica de
Madrid. Escuela Tcnica Superior
de Ingenieros de Minas
Departamento de Matemtica
Aplicada y Mtodos Informticos

Potrebbero piacerti anche