Sei sulla pagina 1di 17

INSTITUTO TECNOLÓGICO SUPERIOR

DE ALVARADO

INGENIERÍA EN SISTEMAS
COMPUTACIONALES
Materia:
MÉTODOS NUMÉRICOS

Semestre-Grupo:
4 SEMESTRE– GRUPO ÚNICO

Producto Académico:
INVESTIGACIÓN
INTERPOLACIÓN Y AJUSTE DE FUNCIONES

Presenta:
ALCEDA ORTIZ JOSE ALEXANDER
166Z0080

Docente:
M.C.C.A MARIA GUADALUPE RAMIREZ GARCIA

ALVARADO, VER. 2018

1
Contenido
INTRODUCCIÓN .............................................................................................................................. 3
5.1 POLINOMIO DE INTERPOLACIÓN DE NEWTON .............................................................. 4
5.2.- POLINOMIO DE INTERPOLACION DE LAGRANGE ....................................................... 7
5.3 INTERPOLACIÓN SEGMENTADA. ....................................................................................... 9
5.5 MÍNIMOS CUADRADOS ........................................................................................................ 13
5.6 PROBLEMAS DE APLICACIÓN. .......................................................................................... 15
CONCLUSIÓN ................................................................................................................................ 16
Bibliografía ........................................................................................................................................ 17

2
INTRODUCCIÓN

Es frecuente la necesidad de buscar funciones apropiadas a partir de datos que


proceden de una población en la que se ha realizado un registro de informaciones
o estudio estadístico, para que cumplan determinadas condiciones que nos
interesen, como que sean continuas, derivables, etc. Con este objetivo trataremos
de plantear distintos procedimientos para realizar la búsqueda de estas funciones,
bien buscando una función que pase exactamente por una serie de puntos (función
de interpolación) o bien que esa función elegida por nosotros se adapte lo mejor
posible a una serie o a una nube de puntos (función de ajuste o regresión).

La finalidad del cálculo de las funciones de interpolación se centra en la necesidad


de obtener valores intermedios (INTERPOLACIÓN) o de valores fuera del intervalo
para el que se dispone de datos (EXTRAPOLACIÓN).

3
5.1 POLINOMIO DE INTERPOLACIÓN DE NEWTON

Polinomios de interpolación de Newton

Uno de estas formas de interpolación se denomina Polinomios de Interpolación de

Newton, que trabaja directamente en la tabla obtenida mediante el proceso de


Diferencias Divididas; En el desarrollo de estas diferencias finitas, se obtuvo en
primer lugar las diferencias finitas ordinarias y luego las diferencias finitas divididas.

Interpolación polinomial de Newton

Algunos casos: lineal, de segundo grado y de tercer grado

4
Interpolación lineal

Utilizando triángulos semejantes

Reordenando

5
Ejemplo

Estimar ln 2 mediante interpolación lineal si ln1 = 0 y ln 6 = 1.791759 y ln 4 =


1.386294

Valor real ln 2 = 0.6931472

Error relativo porcentual = 33.3%

6
5.2.- POLINOMIO DE INTERPOLACION DE LAGRANGE

Interpolación significa estimar el valor desconocido de una función en un punto, tomando


una medida ponderada de sus valores conocidos en puntos cercanos al dado. En la
interpolación lineal se utiliza un segmento rectilíneo que pasa por dos puntos que se
conocen. La pendiente de la recta que pasa por dos puntos (x0, y0) y (x1, y1) viene dada por
m = (y1-y0) /(x1-x0), y la ecuación de la misma es:

El matemático francés Joseph Louis Lagrange llegó a este mismo polinomio usando un
método ligeramente distinto. Si escribimos

Entonces cada uno de los sumandos del miembro derecho de esta relación es un término
lineal, por lo que su suma ser· un polinomio de grado menor o igual que uno

Un sencillo cálculo muestra que L1, 0(x0) = 1, L1, 0(x1) = 0, L1, 1(x0) = 0 y L1, 1(x1) = 1; es
decir, el polinomio P1(x) también pasa por los dos puntos dados:

7
Los términos L1, 0(x) y L1, 1(x) definidos anteriormente se llaman polinomios coeficientes
de Lagrange para los nodos x0 y x1. Usando esta notación, podemos escribir P1(x) como
una suma

Cuando las ordenadas yk vienen dadas por yk = f (xk), el proceso de utilizar P1(x) para
aproximar f(x) en el intervalo [x0, x1] se conoce con el nombre de interpolación lineal.
Generalizando el polinomio PN(x) de grado menor o igual que N que pasa por N+1 puntos
(x0, y0), (x1, y1),..., (xN, yN) viene dado por:

Donde LN, k es el polinomio coeficiente de Lagrange para los nodos x0, x1,..., xN definido
por

Que multiplica a yk en el sumatorio y se ha de anular en todos los nodos excepto en xk


donde toma el valor 1:

Resulta cómodo introducir la notación compacta para el producto y escribir:

8
5.3 INTERPOLACIÓN SEGMENTADA.

Esta interpolación se llama interpolación segmentaria o interpolación por splines. La


idea central es que en vez de usar un solo polinomio para interpolar los datos,
podemos usar segmentos de polinomios y unirlos adecuadamente para formar
nuestra interpolación.

INTERPOLACIÓN SEGMENTARIA LINEAL

Este es el caso más sencillo. En él, vamos a interpolar una función f(x) de la que se
nos dan un número N de pares (x, f(x)) por los que tendrá que pasar nuestra función
polinómica P(x). Esta serie de funciones nuestras van a ser lineales, esto es, con
grado 1: de la forma P(x) = ax + b. Definiremos una de estas funciones por cada par
de puntos adyacentes, hasta un total de (N-1) funciones, haciéndolas pasar
obligatoriamente por los puntos que van a determinarlas, es decir, la función P(x)
será el conjunto de segmentos que unen nodos consecutivos; es por ello que
nuestra función será continua en dichos puntos, pero no derivable en general.

9
INTERPOLACIÓN SEGMENTARIA CUADRÁTICA

En este caso, los polinomios P(x) a través de los que construimos el Spline tienen
grado 2. Esto quiere decir, que va a tener la forma P(x) = ax² + bx + c Como en la
interpolación segmentaria lineal, vamos a tener N-1 ecuaciones (donde N son los
puntos sobre los que se define la función). La interpolación cuadrática nos va a
asegurar que la función que nosotros generemos a trozos con los distintos P(x) va
a ser continua, ya que para sacar las condiciones que ajusten el polinomio, vamos
a determinar cómo condiciones: Que las partes de la función a trozos P(x) pasen
por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos
aproximar, sean igual a f(x) en cada uno de estos puntos. Que la derivada en un
punto siempre coincida para ambos "lados" de la función definida a trozos que pasa
por tal punto común. Esto sin embargo no es suficiente, y necesitamos una
condición más. ¿Por qué? Tenemos 3 incógnitas por cada P(x). En un caso sencillo
con f(x) definida en tres puntos y dos ecuaciones P(x) para aproximarla, vamos a
tener seis incógnitas en total. Para resolver esto necesitaríamos seis ecuaciones,
pero vamos a tener tan sólo cinco: cuatro que igualan el P(x) con el valor de f(x) en
ese punto (dos por cada intervalo), y la quinta al igualar la derivada en el punto
común a las dos P(x). Se necesita una sexta ecuación, ¿de dónde se extrae? Esto
suele hacerse con el valor de la derivada en algún punto, al que se fuerza uno de
los P(x).

10
INTERPOLACIÓN SEGMENTARIA CÚBICA

En este caso, cada polinomio P(x) a través del que construimos los Splines en [m,
n] tiene grado 3. Esto quiere decir, que va a tener la forma P(x) = ax³ + bx² + cx + d
En este caso vamos a tener cuatro variables por cada intervalo (a, b, c,d), y una
nueva condición para cada punto común a dos intervalos, respecto a la derivada
segunda: Que las partes de la función a trozos P(x) pasen por ese punto.

Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual
a f(x) en cada uno de estos puntos. Que la derivada en un punto siempre coincida
para ambos "lados" de la función definida a trozos que pasa por tal punto común.
Que la derivada segunda en un punto siempre coincida para ambos "lados" de la
función definida a trozos que pasa por tal punto común.

Como puede deducirse al compararlo con el caso de splines cuadráticos, ahora no


nos va a faltar una sino dos ecuaciones (condiciones) para el número de incógnitas
que tenemos. La forma de solucionar esto, determina el carácter de los splines
cúbicos. Así, podemos usar: Splines cúbicos naturales: La forma más típica. La
derivada segunda de P se hace 0 para el primer y último punto sobre el que está
definido el conjunto de Splines, esto son, los puntos m y n en el intervalo [m,n]. Dar
los valores de la derivada segunda de m y n de forma "manual", en el conjunto de
splines definidos en el intervalo [m, n]. Hacer iguales los valores de la derivada
segunda de m y n en el conjunto de splines definidos en el intervalo [m, n].

11
5.4 REGRESIÓN Y CORRELACIÓN

La regresión y la correlación son dos técnicas estrechamente relacionadas y


comprenden una forma de estimación. En forma más especifica el análisis de
correlación y regresión comprende el análisis de los datos muéstrales para saber
qué es y cómo se relacionan entre sí dos o más variables en una población. El
análisis de correlación generalmente resulta útil para un trabajo de exploración
cuando un investigador o analista trata de determinar que variables son
potenciales importantes, el interés radica 5.

El error total es la suma de todos los errores.


Tipos de modelos de regresión lineal

Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus


parámetros:

Regresión lineal simple Sólo se maneja una variable independiente, por lo que
sólo cuenta con dos parámetros. Si sabemos que existe una relación entre una
variable denominada dependiente y otras denominadas independientes (como por
ejemplo las existentes entre: la experiencia profesional de los trabajadores y sus
respectivos sueldos, las estaturas y pesos de personas, la producción agraria y la
cantidad de fertilizantes utilizados, etc.

"Y es una función de X" Y = f(X) Como Y depende de X, Y es la variable


dependiente, y X es la variable independiente.

En el Modelo de Regresión es muy importante identificar cuál es la variable


dependiente y cuál es la variable independiente. En el Modelo de Regresión
Simple se establece que Y es una función de sólo una variable independiente,
razón por la cual se le denomina también Regresión Divariada porque sólo hay
dos variables, una dependiente y otra independiente y se representa así: Y = f (X)
"Y está regresando por X"

12
5.5 MÍNIMOS CUADRADOS

Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de


la optimización matemática, en la que, dados un conjunto de pares ordenados
variable independiente, variable dependiente y una familia de funciones, se intenta
encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los
datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las


diferencias en las ordenadas (llamadas residuos) entre los puntos generados por la
función elegida y los correspondientes valores en los datos. Específicamente, se
llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es
1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado.
Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el
mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones
para converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el


método de mínimos cuadrados es que los errores de cada medida estén distribuidos
de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores
mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que
ajustarse, por ejemplo, a una distribución normal. También es importante que los
datos a procesar estén bien escogidos, para que permitan visibilidad en las variables
que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos
cuadrados ponderados).

13
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.
Muchos otros problemas de optimización pueden expresarse también en forma de
mínimos cuadrados, minimizando la energía o maximizando la entropía.

14
5.6 PROBLEMAS DE APLICACIÓN.

En el subcampo matemático del análisis numérico, un spline es una curva


diferenciable definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación mediante


splines porque da lugar a resultados similares requiriendo solamente el uso de
polinomios de bajo grado, evitando así las oscilaciones, indeseables en la mayoría
de las aplicaciones, encontradas al interpolar mediante polinomios de grado
elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas.
La simplicidad de la representación y la facilidad de cómputo de los splines los
hacen populares para la representación de curvas en informática, particularmente
en el terreno de los gráficos por ordenado.

Sólo cinco: cuatro que igualan el P(x) con el valor de f(x) en ese punto (dos por cada
intervalo), y la quinta al igualar la derivada en el punto común a las dos P(x).

Se necesita una sexta ecuación. Esto suele hacerse con el valor de la derivada en
algún punto, al que se fuerza uno de los P(x).

15
CONCLUSIÓN

Con esto hemos concluido que la interpolación es muy necesaria en los casos que
se presenten así como el ajuste de curvas que podemos llegar a plasmar en una
gráfica con los datos que obtenemos al hacer iteraciones o al estar siguiendo el
proceso específico para llegar obtener los datos que se solicitan. La Unidad nos
sirve de mucho ya que gracias a las Unidades anteriores hemos podido relacionar
como se van conectando cada una de estas, y nos damos cuenta como los métodos
numéricos son muy esenciales para el trabajo como para la vida.

16
Bibliografía
http://metodosnumericositpnim.blogspot.mx/2015/11/unidad-4-ajuste-de-curvas-
e_23.html
https://sites.google.com/site/sistrevolution/home/5-2-polinomio-de-interpolacion-de-
newton
http://webs.ucm.es/info/sevipres/P4/01/ANEXOS01.php
https://es.wikipedia.org/wiki/M%C3%ADnimos_cuadrados
https://www.monografias.com/docs/Regresion-y-correlacion-PKZQUBYZBY

17

Potrebbero piacerti anche