Sei sulla pagina 1di 6

Instituto Tecnológico De Pinotepa

Ing. Sistemas Computacionales

Métodos numéricos

Importancia de los métodos numéricos


Cifras significativa
Precisión
Exactitud
Incertidumbre
Sesgo
Tipos de errores (ESQUEMA)

EQUIPO N°7

Ing. Zenón Pedro Ramírez Camacho

Santiago Pinotepa Nacional Oaxaca

31/01/2018
Importancia de los métodos numéricos

-Son técnicas numéricas mediante las cuales es posible formular problemas de tal forma que
sean resueltos con operaciones aritméticas.

La importancia del método numérico no radica en


buscar una solución exacta de un problema, si no
la aproximada, pero con la precisión requerida, o
sea, con un error lo suficientemente pequeño y
próximo a cero, de ahí la utilidad de los métodos
numéricos.

Hay muchos tipos de métodos sin embargo comparten una característica común:
- Llevan a cabo un buen número de cálculos aritméticos y
- Emiten soluciones aproximadas

Nos proporcionan herramientas que son capaces de encontrar soluciones de ecuaciones muy
grandes, de geometrías muy complicadas.

Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
- Calculo de derivadas
- Integrales
- Ecuaciones diferenciales
- Operaciones con matrices
- Interpolaciones
- Ajustes de curvas
- Polinomios

El proceso de solución de problemas por medio de computadoras se requieren algunos pasos:


- Especificación del problema
- Análisis
- Programación
- Verificación
- Documentación
- Producción
Cifra significativa

El concepto de cifra significativa lo podemos definir como aquella que aporta


información no ambigua ni superflua acerca de una determinada medida
experimental, son cifras significativas de un numero vienen determinadas por su
error. Son cifras que ocupan una posición igual o superior al orden o posición de
error.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda


usarse con confianza.

El concepto de cifras significativas tiene dos implicaciones importantes en el estudio


de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe
desarrollar criterios para especificar que tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden expresar


exactamente con un número finito de cifras.

Reglas de operaciones con cifras significativas.

Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e
indicando con + - la incertidumbre en la medida.

Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del primer
dígito diferente de cero y hasta el digito dudoso.

Regla 3: al sumar o restar dos números decimales, el número de cifras decimales del
resultado es igual al de la cantidad con el menor número de ellas.

Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del


resultado es igual al del factor con menos cifras.
Precisión

En ingeniería, ciencia, industria, estadística, exactitud y precisión no son equivalentes. Es


importante resaltar que la automatización de diferentes pruebas o técnicas puede producir
un aumento de la precisión. Esto se debe a que con dicha automatización, lo que logramos
es una disminución de los errores manuales o su corrección inmediata.
Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones
repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida
común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede
estimar como una función de ella.

Exactitud

La exactitud se refiere a que tan cercano está el valor calculado o medido del valor
verdadero. La precisión se refiere a qué tan cercano está un valor individual medido o
calculado respecto a los otros.
Los métodos numéricos deben ser lo suficientemente exactos o sin sesgos para que
cumplan los requisitos de un problema particular de ingeniería.
La exactitud de una medición hace referencia a su cercanía al valor que pretende medir.
Es fácil cometer el error de responder usando más decimales que los contenidos en las
mediciones iniciales, aumentando artificialmente la precisión por la propia capacidad de
cálculo de los computadores. Por otra parte, es de suma importancia cuidar que, durante el
proceso de cálculo intermedio, no se pierda precisión innecesariamente. Es importante
mantener el máximo posible de decimales, pues esto ayuda a controlar la aparición y
propagación de errores numéricos que invaliden los resultados. Estos son errores de
precisión y exactitud ajenos al proceso de medición inicial y son introducidos típicamente
por los métodos numéricos usados y por la aritmética del computador que tiene una
precisión finita para representar interiormente a los números.
Incertidumbre

Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor


verdadero. La incertidumbre puede derivarse de una falta de información o incluso por que
exista desacuerdo sobre lo que se sabe o lo que podría saberse. Puede tener varios tipos de
origen, desde errores cuantificables en los datos hasta terminología definida de forma
ambigua o previsiones inciertas del comportamiento humano. La incertidumbre puede, por
lo tanto, ser representada por medidas cuantitativas (por ejemplo, un rango de valores
calculados según distintos modelos) o por afirmaciones cualitativas (por ejemplo, al reflejar
el juicio de un grupo de expertos).

Sesgo

Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de acuerdo
con las formas por las cuales se produce, puede minimizarse, la ocurrencia de sesgo
también puede ser neutralizada o controlada. En ocasiones sin embargo, es imposible
controlar el sesgo y por cierto el error. En tales circunstancias conviene al menos estar en
antecedente y tener conciencia de su existencia.
ESQUEMA

Potrebbero piacerti anche