Sei sulla pagina 1di 7

LA HISTORIA DE LOS METODOS NUMERICOS.

Definición de métodos numéricos

Los métodos numéricos son técnicas mediante las cuales es posible formular
problemas de tal forma que sean resueltos con operaciones aritméticas. Aunque
hay muchos tipos de métodos, todos comparten una característica común, llevan a
cabo un buen número de cálculos aritméticos y emiten soluciones aproximadas.

La importancia de los métodos numéricos no radica en buscar la solución exacta


de un problema, sino la aproximada pero con la precisión requerida, o sea, con un
error lo suficientemente pequeño y próximo a cero, de ahí la utilidad de los métodos
numéricos.

Importa también el tiempo empleado en obtener la solución y en esto ha jugado un


papel importante el enorme desarrollo de la tecnología computarizada, ya que la
enorme velocidad actual de los medios computarizados de cómputo ha reducido
considerablemente el tiempo de obtención de la solución, lo que ha motivado la
popularidad, el enorme uso y aceptación que hoy tienen los métodos numéricos.
Sumémosle a ello que las computadoras son capaces de dar solución con la
precisión requerida.

Aquí es bueno aclarar que no es correcto pensar que el desarrollo tecnológico


computarizado es quien ha creado los métodos numéricos ya que los orígenes de
la matemática numérica son muy antiguos, datan de miles de años atrás, cuando
los babilonios construyeron tablas matemáticas y elaboraron efemérides
astronómicas. Lo que sucede es que la mayoría de los métodos numéricos
requieren de un enorme volumen de cálculo que los hacían engorrosos de utilizar y
esta dificultad vino a eliminarse con el desarrollo de la computación, pero los
métodos numéricos existen mucho antes de ella.
Por otro lado, para poder elaborar un buen programa de computación, aparte de
manejar un lenguaje determinado, debemos saber realizar el proceso «a mano», ya
que esto nos permitirá implementar un mejor programa que contemple todas las
posibles piedras en el camino.

Con fundamento en lo antes mencionado, tenemos cinco importantes razones para


el estudio de los métodos numéricos:

1. Los métodos numéricos son herramientas poderosas capaces de manejar


sistemas de ecuaciones grandes y complicadas que son difíciles de
resolver analíticamente.
2. Existe software comercial que facilita la solución de problemas mediante
los métodos numéricos. El uso inteligente de estos programas depende
del conocimiento de la teoría en la que se basan estos métodos.
3. Si se conocen los métodos numéricos y se aplican los conocimientos de
programación, se tiene entonces la capacidad de diseñar programas
propios, sin tener que comprar el software costoso.
4. Los métodos numéricos son un vehículo eficiente para aprender a explotar
las bondades que nos ofrecen las computadoras para resolver problemas.
5. Son un medio para reducir problemas de las matemáticas superiores
mediante operaciones aritméticas básicas.

Los métodos numéricos pueden ser aplicados para resolver procedimientos


matemáticos en:

· Cálculo de derivadas

· Integrales

· Ecuaciones diferenciales
· Operaciones con matrices

· Interpolaciones

· Ajuste de curvas

· Polinomios

Los métodos numéricos son adecuados para la solución de problemas comunes de


ingeniería, ciencias y administración, utilizando computadoras electrónicas.

En el proceso de solución de problemas por medio de computadoras se requieren


los pasos siguientes.

* Especificación del problema. Con esto se indica que se debe identificar


perfectamente el problema y sus limitaciones, las variables que intervienen y los
resultados deseados.

*Análisis. Es la formulación de la solución del problema denominada también


algoritmo, de manera que se tenga una serie de pasos que resuelvan el problema y
que sean susceptibles de ejecutarse en la computadora.

*Programación. Este paso consiste en traducir el método de análisis o algoritmo de


solución expresándole como una serie detallada de operaciones.

*Verificación. Es la prueba exhaustiva del programa para eliminar todos los errores
que tenga de manera que efectúe lo que desea los resultados de prueba se
comparan con soluciones conocidas de problemas ya resueltos.
*Documentación. Consiste en preparar un instructivo del programa de manera que
cualquier persona pueda conocer y utilizar el programa.

*Producción. Es la última etapa en la que solo se proporcionan datos de entrada


del programa obteniéndose las soluciones correspondientes.

De lo antes expuesto se puede concluir que es necesario un conocimiento completo


del problema, y de los campos de las matemáticas relacionados con el que es
precisamente el objeto de los métodos numéricos para computadora.

Si los métodos numéricos son los algoritmos (conjuntos detallados y secuenciados


de operaciones) que nos llevan hasta las soluciones estimadas de los problemas,
el estudio de éstos y del análisis de errores que pueden llevar asociados constituye
el Análisis Numérico.

De acuerdo con nuestros objetivos, nosotros nos concentraremos muy


especialmente en los métodos numéricos y rebajaremos el rigor del análisis de
errores, propio de quien tiene por centro el método numérico mismo y no tanto su
aplicación inmediata, sin olvidarnos de él. Es decir, seguiremos la línea de los textos
de ``Métodos Numéricos" más que la de los textos de ``Análisis Numérico".

Conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre y


sesgo.

Cifra significativa:

El concepto de cifra significativa lo podemos definir como aquella que aporta


información no ambigua ni superflua acerca de una determinada medida
experimental, son cifras significativas de un numero vienen determinadas por su
error. Son cifras que ocupan una posición igual o superior al orden o posición de
error.
Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda
usarse con confianza. El concepto de cifras significativas tiene dos implicaciones
importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe
desarrollar criterios para especificar que tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden


expresar exactamente con un número finito de cifras.

Reglas de operaciones con cifras significativas.

Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e
indicando con + - la incertidumbre en la medida.

Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del


primer dígito diferente de cero y hasta el digito dudoso.

Regla 3: al sumar o restar dos números decimales, el numero de cifras decimales


del resultado es igual al de la cantidad con el menor número de ellas.

Regla 4: al multiplicar o dividir dos números, el numero de cifras significativas del


resultado es igual al del factor con menos cifras.

Precisión y exactitud:

En ingeniería, ciencia, industria, estadística, exactitud y precisión no son


equivalentes. Es importante resaltar que la automatización de diferentes pruebas o
técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha
automatización, lo que logramos es una disminución de los errores manuales o su
corrección inmediata.

Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones


repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una
medida común de la variabilidad es la desviación estándar de las mediciones y la
precisión se puede estimar como una función de ella.
Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En
términos estadísticos, la exactitud está relacionada con el sesgo de una estimación.
Cuanto menor es el sesgo más exacto es una estimación.

También se refiere a la aproximación de un numero o de una medida al valor


verdadero que se supone representa.

Cuando expresamos la exactitud de un resultado se expresa mediante el error


absoluto que es la diferencia entre el valor experimental y el valor verdadero.

También es la mínima variación de magnitud que puede apreciar un instrumento.

Incertidumbre:

Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de


alejamiento entre sí, a las diversas aproximaciones a un valor verdadero.

Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a


los diferentes resultados de un determinado evento.

Sesgo:

Existe sesgo cuando la ocurrencia de un error no aparece como un


hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática

Es un alejamiento sistemático del valor verdadero a calcular.

Tipos de errores.

Todos los resultados de la aplicación de métodos numéricos van acompañados de


un error que es conveniente estimar.

En muchas ocasiones esto no es posible hacerlo de un modo cuantitativo, en otras,


en cambio, pueden llevarse a cabo análisis de errores que pueden ser: cuando no
se utilizan los resultados en el análisis, que puede llegar a ser muy complejo
(recordar, p. ej., las expresiones del error de una simple división basadas en las del
cálculo diferencial), y a posterior, cuando se utilizan los propios resultados en el
análisis de los errores.
Es conveniente tener presente en todo momento cuáles son las fuentes de los
errores, lo que puede ser una ayuda definitiva a la hora de resolver eventuales
problemas prácticos, si bien es cierto que éstas actúan siempre juntas, haciendo
muy difícil el conocimiento detallado de la contribución de cada una en cada caso.

Fuentes de error

Son tres que dan lugar a una clasificación de los errores de acuerdo con ellas:

· Inherentes.

Asociado a la precisión de los datos de imputa. (P. Ej. El uso de 0.333333 en lugar
de 1/3.) Su característica principal es que se propaga al output. Esta propagación
puede estudiarse mediante análisis de sensibilidad, que permiten detectar
hipersensibilidades de los resultados hacia variables específicas en rangos
particulares, de modo que puedan tomarse precauciones especiales en esos casos.

Cuando existe una magnificación inaceptable del error se dice que el problema está
mal condicionado. Los errores de input son causantes de imprecisión en los
resultados.

· Truncamiento.

Asociado a la substitución de procesos infinitos por procesos finitos, tales como el


truncamiento de series, el uso se sumas limitadas para el cálculo de integrales o el
uso de diferencias finitas para el cálculo de derivadas. Los errores de truncamiento
causan inexactitud de los resultados.

Cuando se comparan unos métodos numéricos con otros suelen estudiarse


algunas propiedades asociadas con los errores, en estos casos es al error de
truncamiento al que se refiere, exponente, que se expresa en función de algún
parámetro conveniente, h, que tiende a 0 (o a infinito ) cuando el error es nulo.

Potrebbero piacerti anche