Sei sulla pagina 1di 4

TEORA DE LOS ERRORES

En ciencia e ingeniera, el error, como veremos en lo que sigue, est ms


bien asociado al concepto de incerteza en la determinacin del resultado de
una medicin.
Ms precisamente, lo que procuramos en toda medicin es conocer las cotas
(o lmites probabilsticos) de estas incertezas. Grficamente, buscamos
establecer un intervalo donde con cierta probabilidad, podamos decir que se
encuentra el mejor valor de la magnitud x. Este mejor valor x es el ms
representativo de nuestra medicin y al semiancho x lo denominamo la
incerteza o error absoluto de la medicin.

1. Intervalo asociado al resultado de una medicin. Notamos


que, en lugar de dar un nico nmero, definimos un intervalo.
Al valor representativo del entro del intervalo lo llamamos el
mejor valor del semiancho del intervalo.

Exactitud y precisin
Los errores en clculos y medidas se pueden caracterizar con respecto a su
exactitud y su precisin. La exactitud se refiere a qu tan cercano est el valor
calculado o medido del valor verdadero. La precisin se refiere a qu tan
cercanos se encuentran, unos de otros, diversos valores calculados o medidos.
Estos conceptos se ilustran grficamente utilizando la analoga con una diana
en la prctica de tiro. Los agujeros en cada blanco de la imagen 1 se
consideran como las predicciones con una tcnica numrica; mientras que el
centro del blanco representa la verdad. La inexactitud (conocida tambin como
sesgo) se define como una desviacin sistemtica del valor verdadero. Por lo
tanto, aunque los disparos en la imagen 1.C estn ms juntos que losen la
imagen 1.A, los dos casos son igualmente inexactos, ya que ambos se centran
en la esquina superior izquierda del blanco. La imprecisin (tambin llamada
incertidumbre), por otro lado, se refiere a la magnitud en la dispersin de los
disparos. Por consiguiente, aunque las imagen 1.B y 1.D son igualmente
exactas (esto es, igualmente centradas respecto al blanco), la ltima es ms
precisa, pues los disparos estn agrupados en forma ms compacta.
Imagen 1

Los errores numricos surgen del uso de aproximaciones para representar


operaciones y cantidades matemticas exactas. stas incluyen los errores de
truncamiento que resultan del empleo de aproximaciones como un
procedimiento matemtico exacto, y los errores de redondeo que se producen
cuando se usan nmeros que tienen un lmite de cifras significativas para
representar nmeros exactos. Para ambos tipos de errores, la relacin entre el
resultado exacto, o verdadero, y el aproximado est dada por:

Valor verdadero = Valor aproximado + error

Ordenando:

Et = valor verdadero valor aproximado

Donde Et se usa para denotar el valor exacto del error.

Una desventaja en esta definicin es que no toma en consideracin el orden de


la magnitud del valor que se estima. Por ejemplo, un error de un centmetro es
mucho ms significativo si se est midiendo un remache en lugar de un puente.
Una manera de tomar en cuenta las magnitudes de las cantidades que se
evalan consiste en normalizar el error respecto al valor verdadero, es decir

Error relativo fraccional verdadero =

donde, como ya se mencion error = valor verdadero valor aproximado.


El error relativo tambin se puede multiplicar por 100% para expresarlo como:

et =

donde et denota el error relativo porcentual verdadero.

Ya q en muchos casos no se obtiene el valor verdadero se tiene que


normalizar el error:

Donde el subndice a significa que el error est normalizado a un valor


aproximado.

Error de truncamiento:

Los errores de truncamiento son aquellos que resultan al usar una


aproximacin en lugar de un procedimiento matemtico exacto. Por ejemplo
aproximamos la derivada de la velocidad de cada de un paracaidista mediante
una ecuacin en diferencia finita dividida de la forma:

Se present un error de truncamiento en la solucin numrica, ya que la


ecuacin en diferencia slo aproxima el valor verdadero de la derivada. Para
obtener un conocimiento sobre las caractersticas de estos errores, debe
considerar una formulacin matemtica que se utiliza ampliamente en los
mtodos numricos para expresar funciones de manera aproximada: la serie
de Taylor.

SERIE DE TAYLOR

En esencia, la serie de Taylor proporciona un medio para predecir el valor de


una funcin en un punto en trminos del valor de la funcin y sus derivadas en
otro punto.
Con frecuencia es conveniente simplificar la serie de Taylor definiendo un
tamao
de paso o incremento h = xi+1 xi y expresando la ecuacin como: