Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
El presente trabajo está basado en los métodos de optimización en ingeniería los cuales tienen
similitud con los métodos de encontrar raíces ya que ambos están enfocados en conseguir una
ubicación, los de optimización están enfocados en conseguir máximos y mínimos y los de raíces
están enfocados en ubicar la o las raíces en una función.
La segunda parte está enfocada a la interpolación y ajuste de curvas, las cuales consiste en hallar
otros puntos en una función predeterminada, así como también conocer lo diferentes tipos de
interpolaciones también veremos cuál de los métodos es el mejor y el más eficiente a la hora de
realizar un programa o al momento de encontrar diferentes punto de una función.
1
CONTENIDO
Pág.
INTRODUCCIÓN……………………………………………………………….2
1 MÉTODOS DE OPTIMIZACIÓN EN INGENIERÍA...……………..5
1.1 OPTIMIZACIÓN UNIDIMENSIONAL……………………………..5
1.1.1 Método de la sección dorada………………………………………….6
1.1.1.1 Ubicación del intervalo……………………………………………….7
1.1.2 Método de la interpolación cuadrática………………………………..8
1.1.3 Método de newton………………………………………………….....9
1.2 OPTIMIZACIÓN MULTIDIMENSIONAL…………………………10
1.2.1 Clasificación de la optimización multidimensional no restringida…..10
1.2.1.1 Métodos directos……………………………………………………..10
1.2.1.1.1 Búsqueda aleatoria…………………………………………………..10
1.2.1.1.2 Búsquedas invariadas y búsqueda patrón……………………………11
1.2.1.2 métodos con gradientes………………………………………………11
1.2.1.2.1 Gradientes y hessianos………………………………………………11
1.2.1.2.2 Aproximación por diferencias finitas………………………………..12
1.2.1.2.3 Método de máxima inclinación……………………………………....12
1.2.1.3 Métodos avanzados del gradiente…………………………………….13
1.2.1.3.1 Método del gradiente conjugado (Fletcher-Reeves)…………………13
1.2.1.3.2 Método de newton…………………………………………………....14
1.2.1.3.3 Método de Marquardt………………………………………………...14
1.2.1.3.4 Métodos de cuasi-Newton……………………………………………16
1.3 Aplicaciones…………………………………………………………..15
2 INTERPOLACIÓN Y AJUSTE DE CURVAS………………………17
2.1 MÉTODOS DE MÍNIMOS CUADRADOS………………………….17
2.1.1 Regresión lineal……………………………………………………….17
2.1.2 Regresión polinomial……………………………………………….....17
2.1.3 Regresión lineal múltiple……………………………………………..18
2.1.4 Regresión no lineal …………………………………………………..18
2.2 INTERPOLACIÓN DE POLINOMIOS………………………………19
2.2.1 Interpolación polinomial de Newton en diferencias divididas…………19
2.2.1.1 Interpolación lineal……………………………………………………..19
2.2.1.2 Interpolación cuadrática………………………………………………...20
2.2.1.3 Forma general de los polinomios de interpolación de Newton…………20
2.2.1.4 Errores de la interpolación polinomial de Newton……………………...20
2.2.1.5 Algoritmo computacional para el polinomio de interpolación de Newton.21
2.2.2 Polinomios de interpolación de LaGrange ………………………………21
2.2.3 Coeficientes de un polinomio de interpolación…………………………..23
2.2.4 Interpolación inversa…………………………………………………….23
2.3 Aplicaciones……………………………………………………………...24
2
3 Algoritmos genéticos………………………………………………………25
Bibliografía……………………………………………………………………………26
3
LISTADO DE FIGURAS
Pág.
FIGURA 1: diferenciación entre la búsqueda de raíces y el punto óptimo……………………..5
FIGURA 2: diferencia entre un máximo y mínimo local con los absolutos…………………….5
FIGURA 3: representación del Intervalo de Trabajo (Bracketing)……………………………...7
FIGURA 4: El Partenón de Atenas, Grecia, fue construido en el siglo V antes de Cristo………8
FIGURA 5: representación del método de interpolación cuadrática…………………………….9
FIGURA 6: representación del método de newton……………………………………………..10
FIGURA 7: representación de la búsqueda invariada…………………………………………..11
FIGURA 8: representación del método de máxima inclinación………………………………..13
FIGURA 9: representación del método de newton…………………………………………….14
FIGURA 10:Gráfico de datos asociados a un modelo lineal…………………………………..17
FIGURA 11: representación de regresión no lineal……………………………………………18
FIGURA 12: Ejemplos de interpolación polinomial…………………………………………..19
FIGURA 13: Esquema gráfico de la interpolación lineal……………………………………...19
FIGURA 14: Descripción visual del razonamiento detrás del polinomio de LaGrange………22
FIGURA 15: representación gráfica de un algoritmo genético………………………………..24
4
1. MÉTODOS DE OPTIMIZACIÓN EN INGENIERÍA
La optimización y la búsqueda de raíces están relacionada ya que ambas involucran unos puntos
iniciales, y también buscan un punto en una función, la diferencia fundamental entre los métodos
es que la localización de raíces lo que hace es encontrar los ceros de la función. En cambio los
métodos de optimización lo que hace es ubicar los untos máximos y mínimos de la función, El
óptimo es el punto donde la curva es plana. En términos matemáticos, esto corresponde al valor
de x donde la derivada ƒ′(x) es igual a cero. Además, la segunda derivada, ƒ″(x), indica si el óptimo
es un mínimo o un máximo: si ƒ″(x) < 0, el punto es un máximo; si ƒ″(x) > 0, el punto es un
mínimo.
5
Tener una idea general del comportamiento de la función unidimensional, que algunas
veces llega a tenerse mediante la gráfica de la función.
Determinar el valor óptimo en base altos valores iniciales, los cuales varían ampliamente
y son generados en forma aleatoria, después de esto se toma el valor más grande como el
valor óptimo.
Se emplea cambiando el punto donde se encuentra el óptimo local y observar si esta rutina
nos arroja un resultado mejor.
1.1.1 Método de la sección dorada
La búsqueda de la sección dorada es una técnica de búsqueda para una sola variable, sencilla y de
propósito general, esta tiene similitud con el método de bisección para encontrar raíces. El método
de la bisección depende de un intervalo inicial en el cual la función corta el eje x.
La estrategia de este método se basa en tres puntos iniciales: dos considerados los extremos de un
intervalo (x1 y x2) y el tercero (x3) entre los dos primeros de tal suerte que relación entre la
distancia de este punto interno al extremo x2 (x2 − x3) y la distancia entre los extremos (x2 − x1)
es siempre una constante:
𝑥2 − 𝑥3
=𝜏
𝑥2 − 𝑥1
Note que el punto x3 divide al segmento [x1: x2] en dos partes: la parte [x1: x3] es más pequeña
que la parte [x3: x2]: el segmento [x3: x2] es el 60.80 % de [x1: x2], mientras que [x1: x3] tiene
una longitud que es el 38.19 %. El método itera generando un siguiente punto x4 en [x3: x2] (la
parte más amplia) de manera que se cumple:
𝑥4 − 𝑥1
=𝜏
𝑥2 − 𝑥1
Note que las formulas convenientes para el cálculo de x3 y x4 son:
𝑥4 = (1 − 𝜏)𝑥1 + 𝜏𝑥2
𝑥3 = τ𝑥1 + (1 − τ )𝑥2
Y la razón es porque en estas fórmulas no se requiere que x1 < x2. Observemos las siguientes
razones:
6
Partiendo de la función de referencia se escogen tres puntos de los cuatros que están disponibles
En general, si Ío es la longitud del intervalo en la iteración i se cumple que:
I𝑛 = 𝜏 𝑛−1 I𝑛
De manera que sabiendo el intervalo inicial de In y sabiendo la exactitud que se le quiera dar al método es
posible estimar el número de iteraciones para que este converja al valor esperado.
ln(In ) − ln(I1 ) ln(τ )
n = 1+
ln(τ )
7
FUENTE: ITESM. (1 de noviembre de 2009). Obtenido de
http://www.mty.itesm.mx/etie/deptos/m/ma00-130/lecturas/m130-17.pdf.
√5 − 1
= 0 61803 . . ..
2
Esta razón fue empleada con un gran número de propósitos, incluyendo el desarrollo del rectángulo
de la figura 13.3. Tales proporciones fueron consideradas por los griegos como estéticamente
agradables. Entre otras cosas, muchos de los templos siguieron esta forma. La razón dorada se
relaciona con una importante sucesión matemática conocida como los números de Fibonacci, que
son:
0, 1, 1, 2, 3, 5, 8, 13, 21, 34,...
Cada número después de los dos primeros representa la suma de los dos precedentes. Esta
secuencia aparece en diversas áreas de la ciencia y la ingeniería. En el contexto del presente
análisis, una interesante propiedad de la sucesión de Fibonacci relaciona la razón entre números
consecutivos de la serie; es decir, 0/1 =0, 1/1 = 1, 1/2 = 0.5, 2/3 = 0.667, 3/5 = 0.6, 5/8 = 0.625,
8/13 =0.615, y así sucesivamente. La razón entre números consecutivos se va aproximando a la
razón dorada.
FIGURA 4: El Partenón de
Atenas, Grecia, fue construido en
el siglo V antes de Cristo. Sus
dimensiones frontales se ajustan
casi exactamente a un rectángulo
dorado.
8
𝑏
𝑥=−
2𝑐
Si suponemos que f(x) se evalúa en los tres puntos, podríamos calcular los valores de a, b, c
resolviendo el sistema de tres ecuaciones lineales:
FIGURA 5: representación
del método de interpolación
cuadrática. En la gráfica se
puede observar el máximo
real, la función real, la
función cuadrática, la
aproximación cuadrática al
máximo.
9
Aunque el método de newton es muy práctico de utilizar, no es conveniente debido a que hay
algunas funciones en las que hallar las derivadas es muy complejo fácilmente. En tales casos, hay
otros procedimientos que no implican la evaluación de la derivada.
FIGURA 6: representación
del método de newton. En la
figura se puede observar la
pendiente que en este caso
es la misma derivada, la
ubicación de la raíz la
gráfica de la función y los
puntos extremos.
No evaluan la derivada
Métodos sin gradientes
a la hora de resolver la
o directos
funcion
Si se evalua la derivada
Métodos de gradientes o
a la hora de resolver la
metodo de descenso
funcion
10
Es un método burdo el cual no necesita hallar la derivada para encontrar su solución, el cual
consiste en evaluar la función con valores seleccionados, si se dan los valores suficientes de
muestra este método encontrara la solución.
Ventajas
Funciona aun en discontinuidades y en funciones no diferenciales.
Siempre encuentra el óptimo global más que el local.
Desventajas
Por el crecimiento de variables independientes, su implementación tiende a ser costosa.
No es eficiente ya que no tiene en cuenta el comportamiento de la función.
1.2.1.1.2 Búsquedas invariadas y búsqueda patrón
Este método de optimización directo es muy eficiente y consiste en trabajar sólo con una variable
a la vez, para mejorar la aproximación, mientras las otras se mantienen constantes. Puesto que
únicamente cambia una variable, el problema se reduce a una secuencia de búsquedas en una
dimensión.
11
Gradiente en forma vectorial este nos servirá para todas las dimensiones
Las aproximaciones por diferencias finitas se usan cuando el gradiente y el hessiano son difíciles
de hallar ya que es un método de evaluación numérica. Por ejemplo, si se adopta el procedimiento
de diferencias centrales, éstas se calculan así:
12
Donde 𝛿 es un valor fraccional muy pequeño. Sin importar cómo se implemente la aproximación,
la cuestión importante es que se pueda tener la opción de evaluar el gradiente y/o el hessiano en
forma analítica. Esto algunas veces puede resultar una tarea ardua; pero el comportamiento del
algoritmo puede ser benéfico para que el esfuerzo valga la pena. Las derivadas de forma cerrada
serán exactas; pero lo más importante es que se reduce el número de evaluaciones de la función.
Este último detalle tiene un impacto significativo en el tiempo de ejecución.
1.2.1.2.3 Método de máxima inclinación
Este método consiste moverse por un camino fijo del gradiente hasta que la función deje de
aumentar después se evalúa de nuevo el gradiente de la función esto se repite hasta que se
encuentra la solución de la función. Este es quizás uno de los métodos más eficientes a la hora de
utilizar el gradiente.
13
Este método ayuda a mejorar el ascenso de máxima inclinación linealmente convergente usando
gradientes conjugados. En efecto, se puede demostrar que un método de optimización, que usa
gradientes conjugados para definir la dirección de búsqueda, es cuadráticamente convergente. Esto
también asegura que el método optimizará una función cuadrática exactamente en un número finito
de pasos sin importar el punto de inicio. Puesto que la mayoría de las funciones que tienen buen
comportamiento llegan a aproximarse en forma razonable bien mediante una función cuadrática
en la vecindad de un óptimo, los métodos de convergencia cuadrática a menudo resultan muy
eficientes cerca de un valor óptimo.
1.2.1.3.2 Método de newton
El método de Newton para una sola variable (recuerde la sección 13.3) se puede extender a los
casos multivariados. Escriba una serie de Taylor de segundo orden para f(x) cerca de x = xi,
14
Conforme continúan las iteraciones, 𝑎𝑖 se aproxima a cero y el método se convierte en el de
Newton. Así, el método de Marquardt ofrece lo mejor de los procedimientos: comienza en forma
confiable a partir de valores iniciales pobres y luego acelera en forma rápida cuando se aproxima
al óptimo. Por desgracia, el método también requiere la evaluación del hessiano y la inversión
matricial en cada paso.
1.2.1.3.4 Métodos de cuasi-Newton
Los métodos cuasi-Newton, o métodos de métrica variable, buscan estimar el camino directo hacia
el óptimo en forma similar al método de Newton. Los métodos cuasi-Newton intentan evitar estas
dificultades al aproximar H con otra matriz A, sólo las primeras derivadas parciales de f. El
procedimiento consiste en comenzar con una aproximación inicial de H–1 y actualizarla y
mejorarla en cada iteración. Estos métodos se llaman de cuasi-Newton porque no usan el hessiano
verdadero, sino más bien una aproximación. Así, se tienen dos aproximaciones simultáneas:
1. la aproximación original de la serie de Taylor
2. la aproximación del hessiano.
1.3 APLICACIONES.
Problema de Equilibrio de una Compuerta y su Solución Analítica
El caso de estudio está inspirado en fundamentos propios del clásico libro de mecánica de fluidos
de Streeter y Wylie [10]. Una compuerta plana de longitud normal al plano unitaria (fig. 4) de
2000 N de peso y centro de gravedad ubicado a 2 m de la articulación en el punto de rotación O.
Se desea encontrar el ángulo φmáx con el que la compuerta mantiene equilibrio estable.
15
Dado que, Yemp y Femp son iguales a la localización del centroide y el volumen del prisma de
presión respectivamente se tiene que,
(12)
Sabiendo que la longitud (l=4), reemplazando (12) en (11) y realizando simplificaciones y
transposiciones de términos se obtiene h como función de φ,
(13)
Al graficar la función (fig. 5 obtenida usando el software libre de graficación GNUPLOT) puede
verse que posee un máximo contenido entre φ=50° y φ=60° aproximadamente, por tanto el φmax
puede determinarse analíticamente derivando la función h con respecto a φ e igualando a cero,
(14)
De (14) se deduce que el término en corchetes debe ser igual a cero, por tanto, si se realizan las
manipulaciones algebraicas pertinentes y usando la identidad sen2φ=1-cos2φ, se obtiene el ángulo
φ que hace que h sea máximo bajo condiciones estables,
(15)
El problema es muy útil para el análisis de la complejidad de los métodos de optimización, por
cuanto se tiene un valor de referencia analítico que permite obtener porcentajes de error sobre la
solución obtenida con los diferentes métodos.
16
2 INTERPOLACIÓN Y AJUSTE DE CURVAS.
La Interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores
en los extremos. La Extrapolación consiste en hallar un dato fuera del intervalo conocido, pero
debe tenerse en cuenta que esté próximo a uno de sus extremos, pues en otro caso no es muy fiable
el resultado obtenido.
17
2.1.3 Regresión lineal múltiple.
Una extensión útil de la regresión lineal es el caso en el que y es una función lineal de dos o más
Variables independientes. Por ejemplo, y podría ser una función lineal de x1 y x2, como en
y = a0 + a1x1 + a2x2 + e
En particular tal ecuación es útil cuando se ajustan datos experimentales donde la variable sujeta
a estudio es una función de otras dos variables. En este caso bidimensional, la “línea” de regresión
se convierte en un “plano”.
FIGURA 11:
representación de
regresión no lineal.
Como se observa
en la figura la línea
no es recta, arranca
en el origen y se va
curveando, se
observan los
puntos alrededor
de la línea.
18
FUENTE: xlstat. (02 de marzo de 2017). Obtenido de
https://help.xlstat.com/customer/es/portal/articles/2062236-regresi%C3%B3n-no-lineal-tutorial-
en-excel?b_id=9283.
2.2 INTERPOLACIÓN DE POLINOMIOS.
Interpolar significa encontrar un valor intermedio entre dos o más puntos base conocidos, los
cuales se pueden aproximar mediante polinomios. Fórmula general para un polinomio de n-ésimo
grado:
19
Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:
McGraw-Hill.
2.2.1.2 Interpolación cuadrática.
Si se tienen tres puntos como datos, éstos pueden ajustarse en un polinomio de segundo grado
(también conocido como polinomio cuadrático o parábola). Una forma particularmente
conveniente para ello es:
Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados con datos
se utilizan para evaluar los coeficientes b0, b1,..., bn. Para un polinomio de n-ésimo grado se
requieren n + 1 puntos: [x0, f(x0)], [x1, f(x1)],..., [xn, f(xn)]. Usamos estos datos y las siguientes
ecuaciones para evaluar los coeficientes:
Donde las evaluaciones de la función colocadas entre paréntesis son diferencias divididas finitas.
Por ejemplo, la primera diferencia dividida finita en forma general se representa como
20
exactos. También, como en el caso de la serie de Taylor, es posible obtener una formulación para
el error de truncamiento.
Error de truncamiento:
Donde 𝜉 está en alguna parte del intervalo de xi a xi+1. Para un polinomio de interpolación de n-
ésimo grado, una expresión análoga para el error es:
Donde 𝜉 está en alguna parte del intervalo que contiene la incógnita y los datos
Donde
21
Donde Π designa el “producto de”.
Se requiere de tres puntos: [x0, f(x0)], [x1, f(x1)] y [x2, f(x2)]. Cada uno se sustituye en la ecuación
anterior:
De esta manera, las x son los puntos conocidos, y las a las incógnitas. Como hay el mismo número
de ecuaciones que de incógnitas, la ecuación se podría resolver con uno de los métodos de
eliminación de la parte tres. Debe observarse que el procedimiento anterior no es el método de
interpolación más eficiente para determinar los coeficientes de un polinomio.
2.2.4 Interpolación inversa.
Como la nomenclatura implica, los valores de f(x) y x en la mayoría de los problemas de
interpolación son las variables dependiente e independiente, respectivamente. En consecuencia,
22
los valores de las x con frecuencia están espaciados uniformemente. Un ejemplo simple es una
tabla de valores obtenida para la función f(x) = 1/x:
Ahora suponga que usted debe usar los mismos datos, pero que se le ha dado un valor de f(x) y
debe determinar el valor correspondiente de x. Por ejemplo, para los datos anteriores, suponga que
se le pide determinar el valor de x que corresponda a f(x) = 0.3. En tal caso, como se tiene la
función y es fácil de manipular, la respuesta correcta se determina directamente, x = 1/0.3 = 3.3333.
A ese problema se le conoce como interpolación inversa.
2.3 APLICACIONES.
Tengo una caldera y de esta sale un flujo a una presión de 3,5 Mpa y necesito saber que entropía
tiene el vapor sobrecalentado a una temperatura de 375 ºC. Lo primero es ii a unas tablas de
propiedades termodinámicas donde obtengo los siguientes valores:
Ahora voy a interpolar para obtener el valor de la entropía a 375 lo cual la tabla me quedaría así:
y = 6,6601+((6,8428-6,6601)/(400-350))*(375-350)
y = 6,7514
23
3 ALGORITMOS GENÉTICOS
Brevemente, un algoritmo genético (AG) es una técnica de resolución de problemas que imita a
la evolución biológica como estrategia para resolver problemas, englobándose dentro de lo que
antes hemos denominado técnicas basadas en poblaciones. Dado un problema específico a
resolver, la entrada del AG es un conjunto de soluciones potenciales a ese problema, codificadas
de alguna manera, y una métrica llamada función de aptitud, o fines, que permite evaluar
cuantitativamente a cada solución candidata. Estas candidatas pueden ser soluciones que ya se sabe
que funcionan, con el objetivo de que el AG las mejore, pero se suelen generar aleatoriamente.
Los Algoritmos Gen éticos usan una analogía directa con el comportamiento natural. Trabajan con
una población de individuos, cada uno de los cuales representa una solución factible a un problema
dado. A cada individuo se le asigna un valor o´ puntuación, relacionado con la bondad de dicha
solución. En la naturaleza esto equivaldría al grado de efectividad de un organismo para competir
por unos determinados recursos.
FIGURA 15:
representación gráfica
de un algoritmo
genético.
Como se observa en la
figura el algoritmo
cumple un ciclo
determinado. Primero
se selecciona el
individuo, después la
producción, una
función, etc.
24
BEGIN /* Algoritmo Genético Simple */
Generar una población inicial.
Computar la función de evaluación de cada individuo.
WHILE NOT Terminado DO BEGIN /*
Producir nueva generación */
FOR Tamaño˜ población/2 DO BEGIN /*
Ciclo Reproductivo */
Seleccionar dos individuos de la anterior generación, para el cruce (probabilidad de selección
proporcional a la función de evaluación del individuo).
Cruzar con cierta probabilidad los dos individuos obteniendo dos descendientes.
Mutar los dos descendientes con cierta probabilidad.
Computar la función de evaluación de los dos descendientes mutados.
Insertar los dos descendientes mutados en la nueva generación.
EN
IF
la población ha convergido
TEN
Terminado := TRUE
END
END
25
Bibliografía
Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. Mexico D F:
McGraw-Hill.
Ceballos, M. B. (1 de agosto de 2012). SlideShare. Obtenido de
https://es.slideshare.net/totycevallos/optimizacin-mtodos-numricos.
Richard L. Burden, J. D. (2002). Análisis numérico. THOMSON.
SlideShare. (4 de junio de 2008). Obtenido de
https://es.slideshare.net/guestf15e13/optimizacin-de-procesos.
xlstat. (02 de marzo de 2017). Obtenido de
https://help.xlstat.com/customer/es/portal/articles/2062236-regresi%C3%B3n-no-lineal-
tutorial-en-excel?b_id=9283.
Cruz, A. (9 de junio de 2012). mecanalisis. Obtenido de
https://sites.google.com/site/mecanalisis/home/unidad-iv-ajuste-de-curvas-e-
interpolacion.
Algoritmos genéticos tomado de
www.sc.ehu.es/ccwbayes/docencia/mmcc/docs/temageneticos.pdf
Caparrini, F. S. (3 de diciembre de 2016). cs. Obtenido de
http://www.cs.us.es/~fsancho/?e=65
26