Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Núcleo La Guaira
Profesora. Integrantes.
María Blequett Salazar, Josué.
V-27.441.575
Sánchez, Joerfre.
V-27.487.787
Introducción
Los métodos numéricos son técnicas mediante las cuales es posible formular
problemas matemáticos de tal forma que puedan resolverse usando operaciones
aritméticas.
Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin
de resolver problemas matemáticos, de ingeniería y científicos en una computadora,
reducir esquemas numéricos básicos, escribir programas y resolverlos en una
computadora y usar correctamente el software existente para dichos métodos y no
solo aumenta nuestra habilidad para el uso de computadoras sino que también
amplia la pericia matemática y la comprensi6n de los principios científicos básicos.
Cifra significativa
Precisión y exactitud
Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En
términos estadísticos, la exactitud está relacionada con el sesgo de una estimación.
Cuanto menor es el sesgo más exacto es una estimación.
Incertidumbre
Sesgo
También, representan la diferencia entre un valor calculado por una fórmula dada y
el valor verdadero. Existen varios tipos de errores, siendo los más usuales en los
métodos numéricos el error inherente, error de redondeo, error por truncamiento,
error absoluto y error relativo.
Tipos de Errores
Error absoluto
Se define como la diferencia que existe entre el valor real de la magnitud a medir y
el obtenido en una medida. Puesto que es una diferencia de valores de una misma
magnitud, el error absoluto se expresa en las mismas unidades que la magnitud. Y
se expresa mediante la siguiente fórmula:
Ejemplo:
Una barra de metal mide 10 metros de largo. La medimos con un metro calibrado en
milímetros y nos da una medición de 9,998 metros. ¿Cuál es el error absoluto?
En nuestro caso, el metro mide en milímetros, luego el error del aparato es:
El error debido a la persona que realiza la medición es la diferencia entre el valor real
y el valor aproximado:
Una vez obtenidos el error del aparato y el error del medidor, el error absoluto es el
mayor de los dos:
Observa como tanto la medida como el error están expresados en milésimas y el error
sólo tiene una cifra distinta de cero.
Error Relativo
Ejemplo:
Supóngase que se tiene que medir la longitud de un puente y de un remache,
obteniéndose 9 999 y 9 cm, respectivamente. Si los valores son 10 000 y 10 cm,
calcúlese a) El error y b) El error relativo porcentual de cada caso.
a) Solución: El error de medición del puente es:
EA = 10 000 - 9 999 = 1cm
Y para el remache es de
EA = 10 - 9 = 1cm
En este caso, el error relativo de la primera medición será mayor que el de la segunda,
ya que en proporción 1 m representa un mayor porcentaje en este caso.
Lote de 300 m:
Ep = (1/300) x 100%
Ep = 0,33 %
Lote de 2000 m:
Ep = (1/2000) x 100%
Ep = 0,05 %
Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación en
lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados
con una formulación matemática: la serie de Taylor.
3,14159265358979…
32,438191288
6,3444444444444
Para truncar estos números a 4 dígitos decimales, sólo consideramos los 4 dígitos a
la derecha de la coma decimal.
El resultado es:
3,1415
32,4381
6,3444
Error de redondeo
Otros tipos de errores son el error humano que pueden ocurrir cuando se toman
datos estadísticos o muestras, si estos datos son mal recopilados los errores al
utilizarlos serán obvios. Cuando se calibran mal los equipos donde de harán lecturas
de algunas propiedades de los compuestos o resultados de un experimentos. Cuando
se desarrollan modelos matemáticos y estos son mal formulados y no describen
correctamente el fenómeno o equipo en estudio. Todos los tipos de errores pueden
contribuir a un error mayor, sin embargo el error numérico total, es la suma de los
errores de truncamiento y redondeo.
Los métodos numéricos son importantes porque nos vuelven aptos para entender
esquemas numéricos con el fin de resolver problemas matemáticos, de ingeniería y
científicos en una computadora, haciendo el uso correcto de un programa, es decir,
un software. Derivándose del método numérico un nuevo concepto, el cual vendría
siendo el de “cifra significativa”, que nos aporta una medida experimental que no es
incierta, ni superflua, es decir, que estas son relevantes para un método numérico.
Es importante recalcar que en ingeniería, ciencia, industria, estadística, los
conceptos de “exactitud” y “precisión” no significan lo mismo. Diciéndonos así que,
precisión refiere a la capacidad de un instrumento de medición de dar el mismo
resultado de mediciones diferentes realizadas en las mismas condiciones o de dar el
resultado deseado con exactitud. Mientras que la exactitud, en la ingeniería se refiere
a cuán cerca del valor real se encuentra el valor medido. Este término está
estrechamente relacionada con el sesgo, ya que mientras menor sea este (el sesgo)
mayor es la exactitud. El sesgo se refiere a algo desproporcionado, que tiene más
“peso” en una cosa que en otra. Mientras que incertidumbre o también llamada
imprecisión se refiere al grado de alejamiento entre sí, a las diversas aproximaciones
a un valor verdadero.
Conclusión – Josué
https://esimecuanalisisnumerico.wordpress.com/2014/05/03/1-1-tipos-de-
errores/
https://metodosnumericositm.wixsite.com/mnitm/single-
post/2017/09/20/1IMPORTANCIA-A-LOS-METODOS-NUMERICOS
https://sites.google.com/site/metnumvmc/unidad-i-2
https://ekuatio.com/error-absolutos-y-error-relativos-que-son-y-como-se-
calculan/