Sei sulla pagina 1di 12

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa

Universidad Nacional Experimental Politécnica

De La Fuerza Armada Nacional Bolivariana

Ing. Sistemas 4to Semestre Diurno

Núcleo La Guaira

Profesora. Integrantes.
María Blequett Salazar, Josué.
V-27.441.575
Sánchez, Joerfre.
V-27.487.787
Introducción

Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre


de manera aproximada, la solución de ciertos problemas realizando cálculos
puramente aritméticos y lógicos (operaciones aritméticas elementales, cálculo de
funciones, consulta de una tabla de valores, cálculo preposicional, etc.). Un tal
procedimiento consiste de una lista finita de instrucciones precisas que especifican
una secuencia de operaciones algebraicas y lógicas (algoritmo), que producen o bien
una aproximación de la solución del problema (solución numérica) o bien un
mensaje. A lo largo del tiempo, los métodos numéricos han sido desarrollados con el
objeto de resolver problemas matemáticos cuya solución es difícil o imposible de
obtener por medio de los procedimientos tradicionales. Las soluciones que ofrecen
los métodos numéricos son aproximaciones de los valores reales y, por tanto se
tendrá un cierto grado de error que será conveniente determinar.

Los errores en método numéricos se generan con el uso de aproximaciones para


representar las operaciones y cantidades matemáticas. El error numérico es una
medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que
dicha magnitud tiene. Un aspecto importante de los errores numéricos es
su estabilidad numérica. Dicha estabilidad se refiere a como dentro de un algoritmo
de análisis numérico el error de aproximación es propagado dentro del
propio algoritmo.
El concepto de error es consustancial con el cálculo numérico. En todos los
problemas es fundamental hacer un seguimiento de los errores cometidos a fin de
poder estimar el grado de aproximación de la solución que se obtiene.
Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a otra.
Por ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor trabajar
con una longitud grande; por otro lado, una longitud pequeña es más económica y
útil para cálculos y procedimientos administrativos.
Importancia de los métodos numéricos

Los métodos numéricos son técnicas mediante las cuales es posible formular
problemas matemáticos de tal forma que puedan resolverse usando operaciones
aritméticas.

Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin
de resolver problemas matemáticos, de ingeniería y científicos en una computadora,
reducir esquemas numéricos básicos, escribir programas y resolverlos en una
computadora y usar correctamente el software existente para dichos métodos y no
solo aumenta nuestra habilidad para el uso de computadoras sino que también
amplia la pericia matemática y la comprensi6n de los principios científicos básicos.

El análisis numérico trata de diseñar métodos para “aproximar” de una manera


eficiente las soluciones de problemas expresados matemáticamente.

El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a


problemas complejos utilizando sólo las operaciones más simples de la aritmética.
Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la
aproximación al problema matemático.

Cifra significativa

El concepto de cifra significativa lo podemos definir como aquella que aporta


información no ambigua ni superflua acerca de una determinada medida
experimental, son cifras significativas de un numero vienen determinadas por su
error. Son cifras que ocupan una posición igual o superior al orden o posición de
error.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda


usarse con confianza. El concepto de cifras significativas tiene dos implicaciones
importantes en el estudio de los métodos numéricos.

1. Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se


debe desarrollar criterios para especificar qué tan precisos son los resultados
obtenidos.
2. Aunque ciertos números representan número específicos, no se pueden
expresar exactamente con un número finito de cifras.

Precisión y exactitud

En ingeniería, ciencia, industria, estadística, exactitud y precisión no son


equivalentes. Es importante resaltar que la automatización de diferentes pruebas o
técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha
automatización, lo que logramos es una disminución de los errores manuales o su
corrección inmediata.

Precisión: se refiere a la dispersión del conjunto de valores obtenidos de


mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la
precisión. Una medida común de la variabilidad es la desviación estándar de las
mediciones y la precisión se puede estimar como una función de ella.

Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En
términos estadísticos, la exactitud está relacionada con el sesgo de una estimación.
Cuanto menor es el sesgo más exacto es una estimación.

También se refiere a la aproximación de un numero o de una medida al valor


verdadero que se supone representa.

Cuando expresamos la exactitud de un resultado se expresa mediante el error


absoluto que es la diferencia entre el valor experimental y el valor verdadero.

También es la mínima variación de magnitud que puede apreciar un instrumento.

Incertidumbre

Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de


alejamiento entre sí, a las diversas aproximaciones a un valor verdadero.

Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los


diferentes resultados de un determinado evento.

Sesgo

Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio


(al azar) advirtiéndose que este ocurre en forma sistemática

Es un alejamiento sistemático del valor verdadero a calcular.

Errores en Método Numérico

Los errores numéricos surgen del uso de aproximaciones para representar


operaciones y cantidades matemáticas exactas.

También, representan la diferencia entre un valor calculado por una fórmula dada y
el valor verdadero. Existen varios tipos de errores, siendo los más usuales en los
métodos numéricos el error inherente, error de redondeo, error por truncamiento,
error absoluto y error relativo.

Enseguida, describiremos brevemente algunos de los tipos de error más importantes


que existen en cuanto a su uso se refiere, es decir, aquellos cuya función es tener
cálculos previstos de posibles aspectos a ser tomados en cuenta en mediciones y/o
decisiones que determinen el accionar de algo en específico.

Tipos de Errores

Error absoluto

Se define como la diferencia que existe entre el valor real de la magnitud a medir y
el obtenido en una medida. Puesto que es una diferencia de valores de una misma
magnitud, el error absoluto se expresa en las mismas unidades que la magnitud. Y
se expresa mediante la siguiente fórmula:

Ejemplo:

Una barra de metal mide 10 metros de largo. La medimos con un metro calibrado en
milímetros y nos da una medición de 9,998 metros. ¿Cuál es el error absoluto?

En nuestro caso, el metro mide en milímetros, luego el error del aparato es:

El error debido a la persona que realiza la medición es la diferencia entre el valor real
y el valor aproximado:

En este caso el valor es 10 m y el valor aproximado es 9,998 m, que es el valor


obtenido, por lo que el error es:

Una vez obtenidos el error del aparato y el error del medidor, el error absoluto es el
mayor de los dos:

Observa como tanto la medida como el error están expresados en milésimas y el error
sólo tiene una cifra distinta de cero.
Error Relativo

Se define como el cociente entre el error absoluto ∆x y el valor real Xv de la magnitud,


y se expresa mediante la siguiente fórmula:

Ejemplo:
Supóngase que se tiene que medir la longitud de un puente y de un remache,
obteniéndose 9 999 y 9 cm, respectivamente. Si los valores son 10 000 y 10 cm,
calcúlese a) El error y b) El error relativo porcentual de cada caso.
a) Solución: El error de medición del puente es:
EA = 10 000 - 9 999 = 1cm
Y para el remache es de
EA = 10 - 9 = 1cm

b) El error relativo porcentual para el puente es de:


ERP = 1/ 10 000 x 100% = 0.01%
Y para el remache es de
ERP = 1/10 x 100% = 10%
Error Porcentual

Es el error expresado como un porcentaje de la cantidad de la cual tratamos de


obtener una aproximación, es decir, el error relativo. Se expresa mediante la
siguiente formula:
Ejemplo:

Medición de dos terrenos:

Al medir dos lotes o terrenos, se dice que hay aproximadamente 1 m de error en la


medición. Un terreno es de 300 metros y otro de 2000.

En este caso, el error relativo de la primera medición será mayor que el de la segunda,
ya que en proporción 1 m representa un mayor porcentaje en este caso.

Lote de 300 m:

Ep = (1/300) x 100%

Ep = 0,33 %

Lote de 2000 m:

Ep = (1/2000) x 100%

Ep = 0,05 %

Error por Truncamiento

Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.

Los errores de truncamiento son aquellos que resultan al usar una aproximación en
lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados
con una formulación matemática: la serie de Taylor.

Taylor es una formulación para predecir el valor de la función en Xi+1 en términos


de la función y de sus derivadas en una vecindad del punto Xi. Siendo el término
final:
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun
polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como
las exponenciales o senoidales, no se obtiene una estimación exacta mediante un
número finito de términos. Cada una de los términos adicionales contribuye al
mejoramiento de la aproximación, aunque sea un poco.

Por ejemplo dados los números reales:

3,14159265358979…

32,438191288

6,3444444444444

Para truncar estos números a 4 dígitos decimales, sólo consideramos los 4 dígitos a
la derecha de la coma decimal.

El resultado es:

3,1415

32,4381

6,3444

Nótese que en algunos casos, el truncamiento dará el mismo resultado que el


redondeo, pero el truncamiento no redondea hacia arriba ni hacia abajo los dígitos,
meramente los corta en el dígito especificado. El error de truncamiento puede ser
hasta el doble del error máximo que se puede tener usando redondeo.

Error de redondeo

A continuación se analizarán brevemente algunas consecuencias de utilizar el


sistema binario y una longitud de palabra finita.
Como no es posible guardar un numero binario de longitud infinita o un numero de
más dígitos de los que posee la mantisa de la computadora que se está empleando,
se almacena sólo un numero finito de estos dígitos; como consecuencia, se comete
automáticamente un pequeño error, conocido como error de redondeo, que al
repetirse muchas veces puede llegar a ser considerable.
Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas,
los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos
razones del porqué pueden resultar críticos en algunos métodos numéricos:
Ciertos métodos requieren cantidades extremadamente grandes para obtener una
respuesta. Además, estos cálculos a menudo dependen entre sí. Esto es, los cálculos
posteriores son dependientes de los anteriores. En consecuencia, aunque un error de
redondeo individual puede ser muy pequeño, el efecto de acumulación en el
transcurso de la gran cantidad de cálculos puede ser significativo.
El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones
algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo.
Ya que en este caso se presenta en muchos métodos numéricos, el error de redondeo
puede resultar de mucha importancia.
Ejemplos:
Los siguientes ejemplos tienen por objeto ilustrar las reglas de redondeo.
5.6723 ----------------------------5.67´ 3 Cifras Significativas
10.406 ----------------------------7.4 4 Cifras Significativas
10.406 ----------------------------7.4 2 Cifras Significativas
88.21650 -------------------------88.216 5 Cifras Significativas
1.25001 ---------------------------1.3 2 Cifras Significativas
Otros Tipos de Errores

Otros tipos de errores son el error humano que pueden ocurrir cuando se toman
datos estadísticos o muestras, si estos datos son mal recopilados los errores al
utilizarlos serán obvios. Cuando se calibran mal los equipos donde de harán lecturas
de algunas propiedades de los compuestos o resultados de un experimentos. Cuando
se desarrollan modelos matemáticos y estos son mal formulados y no describen
correctamente el fenómeno o equipo en estudio. Todos los tipos de errores pueden
contribuir a un error mayor, sin embargo el error numérico total, es la suma de los
errores de truncamiento y redondeo.

Error por Overflow

El error de overflow o desbordamiento de buffer, es un error de sistema causado por


un defecto de programación, de tal forma que el programa que lo sufre pretende
escribir más información en el buffer de la que este puede alojar, es decir, Cuando
en un programa se intenta almacenar un número mayor que el máximo.
Este desbordamiento es posible porque el autor del programa no incluyó el código
necesario para comprobar el tamaño y capacidad del buffer en relación con el
volumen de datos que tiene que alojar.

Error por Underflow

Es un problema aritmético, esto sucede cuando un búfer carga su información a una


velocidad más baja que el procesamiento de la misma, esto hace que el programa o
dispositivo que procesa dicha información se detenga momentánea y seguidamente
por el hecho de que si continua, estaría haciendo una solicitud a un espacio de
memoria nula, un subdesbordamiento de búfer puede efectuarse en cualquier
software o dispositivo que dependa del flujo de datos o carga de un búfer.
Conclusión – Joerfre

Los métodos numéricos son importantes porque nos vuelven aptos para entender
esquemas numéricos con el fin de resolver problemas matemáticos, de ingeniería y
científicos en una computadora, haciendo el uso correcto de un programa, es decir,
un software. Derivándose del método numérico un nuevo concepto, el cual vendría
siendo el de “cifra significativa”, que nos aporta una medida experimental que no es
incierta, ni superflua, es decir, que estas son relevantes para un método numérico.
Es importante recalcar que en ingeniería, ciencia, industria, estadística, los
conceptos de “exactitud” y “precisión” no significan lo mismo. Diciéndonos así que,
precisión refiere a la capacidad de un instrumento de medición de dar el mismo
resultado de mediciones diferentes realizadas en las mismas condiciones o de dar el
resultado deseado con exactitud. Mientras que la exactitud, en la ingeniería se refiere
a cuán cerca del valor real se encuentra el valor medido. Este término está
estrechamente relacionada con el sesgo, ya que mientras menor sea este (el sesgo)
mayor es la exactitud. El sesgo se refiere a algo desproporcionado, que tiene más
“peso” en una cosa que en otra. Mientras que incertidumbre o también llamada
imprecisión se refiere al grado de alejamiento entre sí, a las diversas aproximaciones
a un valor verdadero.

Conclusión – Josué

Habiendo ya profundizado acerca del tema de la importancia de los métodos


numéricos entendemos que los métodos numéricos son herramientas muy
poderosas para la solución de ecuaciones grades, resolver geometrías complicadas.
Habiendo llevado a términos más claro logramos alcanzar un conocimiento amplio
acerca de lo que es precisión y exactitud sabiendo que la exactitud de una medición
hace referencia a su cercanía al valor que pretende medir y la precisión. Hablamos
de algunos tipos de errores como lo son el absoluto que es la diferencia entre el valor
exacto y su valor calculado o redondeado; o sea el valor exacto menos el valor
calculado y debido a que la ecuación se dio en términos del valor absoluto el error
absoluto no es negativo. También llegamos a un concepto claro de lo que vendría
siendo el error relativo que viene siendo el que nos indica la calidad de la medida. Es
el cociente entre el error absoluto y el valor que damos como representativo. Así
como muchos otros errores. Es importante aclarar que la importancia de los métodos
numéricos ya que sin esta no podríamos buscarle solución a dichos errores.
Bibliografía

https://esimecuanalisisnumerico.wordpress.com/2014/05/03/1-1-tipos-de-
errores/
https://metodosnumericositm.wixsite.com/mnitm/single-
post/2017/09/20/1IMPORTANCIA-A-LOS-METODOS-NUMERICOS
https://sites.google.com/site/metnumvmc/unidad-i-2
https://ekuatio.com/error-absolutos-y-error-relativos-que-son-y-como-se-
calculan/

Potrebbero piacerti anche