Sei sulla pagina 1di 8

Universidad valle del Grijalva

Facultad de ingeniería y diseño

Licenciatura en ingeniería civil

5° cuatrimestre grupo “A”

Métodos numéricos

Error en el análisis numérico

Nelson Eduardo vazquez de los santos

Ing. Julio Alberto Solís Copoya

Tuxtla Gutiérrez, Chiapas a 11 de febrero del 2019


Introducción
Los errores numéricos se generan con el uso de aproximaciones para representar las
operaciones y cantidades matemáticas. Estos incluyen de truncamiento que resultan de
representar aproximadamente un procedimiento matemático exacto, y los errores de
redondeo, que resultan de presentar aproximadamente números exactos. Para los tipos de
errores, la relación entre el resultado exacto o verdadero y el aproximado está dado por: Error
absoluto, Error relativo. Errores de Redondeo, Errores de Truncamiento.
1.2 Tipos de Errores

Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada número en
una computadora, y esta cantidad o longitud varía de una máquina a otra. Por ejemplo,
cuando se realizan cálculos de ingeniería y ciencia, es mejor trabajar con una longitud grande;
por otro lado, una longitud pequeña es más económica y útil para cálculos y procedimientos
administrativos.

Los errores numéricos se generan con el uso de aproximaciones para representar las
operaciones y cantidades matemáticas. El error numérico es una medida del ajuste o cálculo
de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto
importante de los errores numéricos es su estabilidad numérica. Dicha estabilidad se refiere
a como dentro de un algoritmo de análisis numérico el error de aproximación es propagado
dentro del propio algoritmo.

El concepto de error es consustancial con el cálculo numérico. En todos los problemas es


fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado
de aproximación de la solución que se obtiene.

1.- Error absoluto.

Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo
o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o
negativa). Tiene unidades, las mismas que las de la medida.

El error absoluto de una medida no nos informa por sí solo de la bondad de la misma. Es
evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la longitud de una
carretera que al medir la longitud de un folio.

El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el valor


aproximado. Hay autores que definen el error absoluto como la diferencia entre el valor
aproximado y el valor exacto, donde la diferencia únicamente está en el signo ya que no se
toma como valor absoluto. Sin embargo, podríamos tomar como fórmula general la siguiente
expresión:

Cuando el valor exacto no es conocido, por ejemplo, en cualquier medida física, se habla de
cota del error absoluto, que será un valor superior al error absoluto que asegure que el error
cometido nunca excederá a ese valor. Si llamamos c a la cota del error absoluto de un número,
se cumplirá:

2.- Error relativo.

El error relativo es el cometido en la estimación del valor de un número, es el valor absoluto


del cociente entre su error absoluto y el valor exacto. El error relativo da idea de la precisión
de una medida, y se suele manejar en forma de porcentaje (%).

Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor exacto
(A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto entre el valor
aproximado o considerado como exacto.

También puede hablarse de cota del error relativo, que si la representamos como β, se
cumplirá:
A – A´) / A ≤ β

3.- Error porcentual.

El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por


100.

ERP = ER X 100

4.- Error de redondeo.

A continuación se analizarán brevemente algunas consecuencias de utilizar el sistema binario


y una longitud de palabra finita.

Como no es posible guardar un numero binario de longitud infinita o un numero de mas


dígitos de los que posee la mantisa de la computadora que se esta empleando, se almacena
sólo un numero finito de estos dígitos; como consecuencia, se comete automáticamente un
pequeño error, conocido como error de redondeo, que al repetirse muchas veces puede llegar
a ser considerable.

Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores
de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del porqué
pueden resultar críticos en algunos métodos numéricos:

Ciertos métodos requieren cantidades extremadamente grandes para obtener una


respuesta. Además, estos cálculos a menudo dependen entre si. Esto es, los cálculos
posteriores son dependientes de los anteriores. En consecuencia, aunque un error de
redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso
de la gran cantidad de cálculos puede ser significativo.

El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones
algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya
que en este caso se presenta en muchos métodos numéricos, el error de redondeo puede
resultar de mucha importancia.
5.- Error de truncamiento.

Cuando una expresión matemática se remplaza por una fórmula más simple, se introduce un
error, conocido como error de truncamiento.

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de
un procedimiento matemático exacto. Estos tipos de errores son evaluados con una
formulación matemática: la serie de Taylor.

Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la


función y de sus derivadas en una vecindad del punto Xi. Siendo el término final:

Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1

En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun polinomio
de n-ésimo orden. Para otras funciones continuas diferenciables, como las exponenciales o
senoidales, no se obtiene una estimación exacta mediante un número finito de términos.
Cada una de los términos adicionales contribuye al mejoramiento de la aproximación,
aunque sea un poco.
Conclusión

Cuando se emplea un número en el cálculo, debe haber seguridad que pueda usarse con
confianza
El concepto de cifras o dígitos significativos se ha desarrollado para designar formalmente
la contabilidad de un valor numérico. El número de cifras significativas es el número de
dígitos, más un digito estimado que se pueda usar con confianza; los ceros no siempre son
cifras significativas ya que pueden usarse solo para ubicar el punto decimal.
Bibliografía

1. Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.

2. Antonio Nieves Hurtado, Federico C. Domínguez Sánchez,


Métodos Numéricos, 3ª ed., CESA.

Potrebbero piacerti anche