Sei sulla pagina 1di 2

"Los métodos numéricos son técnicas mediante las cuales es posible formular

problemas de tal forma que puedan resolverse usando operaciones aritméticas".

Aunque hay muchos tipos de métodos numéricos, todos comparten una


característica común: invariablemente los métodos numéricos llevan a cabo un buen
número de tediosos cálculos aritméticos.
No es raro que con el desarrollo de computadoras digítales, eficientes y rápidas, el
papel de los métodos numéricos en la solución de problemas de ingeniería haya
aumentado considerablemente en los últimos años. Hoy en día, las computadoras
y los métodos numéricos proporcionan una alternativa para cálculos tan
complicados.
Los métodos numéricos representan alternativas que amplían considerablemente la
capacidad para confrontar y resolver los problemas; como resultado, se dispone de
más tiempo para aprovechar las habilidades creativas personales.

Existe un buen número de razones por las cuales se deben estudiar los métodos
numéricos:

a) Los métodos numéricos son herramientas extremadamente poderosas para la


solución de problemas. Por lo tanto, amplían la habilidad de quien los estudia para
resolver problemas.

b) En el transcurso de su carrera, es posible que el ingeniero tenga la ocasión de


usar software disponible comercialmente que contenga métodos numéricos.

"El análisis numérico es pues: una reflexión sobre los cursos tradicionales de
cálculo, álgebra lineal, ecuaciones diferenciales entre otros, concretando en una
serie de métodos o algoritmos, cuya característica principal es la posibilidad de
obtener resultados numéricos de problemas matemáticos de cualquier tipo a partir
de números y un numero finito de operaciones aritméticas".
Tipos de Errores
Los errores numéricos se generan con el uso de aproximaciones para representar
las operaciones y cantidades matemáticas. El error numérico es una medida del
ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha
magnitud tiene. Un aspecto importante de los errores numéricos es su estabilidad
numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis
numérico el error de aproximación es propagado dentro del propio algoritmo.
Error absoluto.
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta
sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
El error absoluto de una medida no nos informa por sí solo de la bondad de la
misma. Es evidente, que no es igual de grave tener un error absoluto de 1 cm al
medir la longitud de una carretera que al medir la longitud de un folio.
El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el valor
aproximado. Hay autores que definen el error absoluto como la diferencia entre el
valor aproximado y el valor exacto, donde la diferencia únicamente está en el signo
ya que no se toma como valor absoluto.

Error relativo.
El error relativo es el cometido en la estimación del valor de un número, es el valor
absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da
idea de la precisión de una medida, y se suele manejar en forma de porcentaje (%).
Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor
exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto
entre el valor aproximado o considerado como exacto.
Error de truncamiento.
Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación en
lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados
con una formulación matemática: la serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos
de la función y de sus derivadas en una vecindad del punto Xi. Siendo el término
final

Potrebbero piacerti anche