Sei sulla pagina 1di 7

Longitud:

El concepto de longitud tiene su origen en la palabra latina longitudo y se destina a


nombrar a la magnitud física que permite marcar la distancia que separa dos puntos en el
espacio, la cual se puede medir, de acuerdo con El Sistema Internacional, valiéndose de la
unidad metro.
Por citar ejemplos concretos de uso: “Necesito un estante de madera con una longitud de
40 centímetros”, “Esta mesa tiene una longitud de más de 50 centímetros, no creo que
entre en nuestra cocina”, “La longitud de la cama apenas deja lugar para pasar”.

Por otra parte hay que decir que la longitud vertical es popularmente mencionada
como altura y la longitud horizontal a su vez se la asocia al ancho: “Este armario tiene una
altura de 1,8 metros” es una frase más habitual que “Este armario tiene una longitud
vertical de 1,8 metros”. De igual forma, suele decirse “El ancho de esta mesa no supera los
70 centímetros”, en lugar de “La longitud horizontal de esta mesa no supera los 70
centímetros”.
Magnitud:
El concepto se usa para aludir al tamaño de un elemento.
or ejemplo: “En la empresa no tenemos espacio para instalar una máquina de esa
magnitud”, “Es difícil estacionar un automóvil de dicha magnitud”, “En este local usted
puede encontrar muebles de todas las magnitudes, así que seguramente va a hallar un
producto apropiado para su hogar”.
Exactitud, precisión y error
En cualquier actividad científica o técnica es inevitable la existencia de errores. Puede
tratarse de errores de medición o errores de transcripción, errores de posicionamiento o
errores en la variable medida.
Tan absurdo resultaría negar el error como invertir esfuerzos más allá de lo razonable para
conseguir pequeñas reducciones del mismo una vez que se ha conseguido una exactitud
adecuada para los objetivos del trabajo. La actitud más razonable es tratar de estimar la
magnitud de los errores cometidos, comunicarlo y tenerlo en cuenta para no pedirle a los
resultados una precisión mayor de la que realmente pueden ofrecer.
En primer lugar hay que distinguir entre precisión y exactitud. Precisión es el detalle con el
que un instrumento o procedimiento puede medir una variable mientras que exactitud es
lo que se acerca esta medición al valor real, en SIG el concepto de precisión se relaciona
con el de resolución en formato raster. El error es la diferencia entre el valor real y el
medido, sin embargo puesto que el valor real nunca se conoce realmente, el error siempre
debe estimarse.
Por ejemplo, una regla tiene una precisión de milímetro mientras que un metro de
electricista tiene una precisión de centímetro. Sin embargo será más exacto medir un
muro con un metro que con una regla ya que el instrumento es más apropiado.
En ocasiones los errores proceden de la utilización de ordenadores con precisión finita
para manejar el espacio que es un continuo. Los errores en las operaciones en coma
flotante de los ordenadores pueden afectar a los resultados, por ello es recomendable
utilizar siempre números enteros. Por ejemplo, las coordenadas X e Y deberían expresarse
siempre en metros nunca en kilómetros, los valores de las variables regionalizadas
deberían expresarse de forma que no incluyeran decimales (altitud en centímetros,
precipitación en décimas de milímetro, etc.). De esta manera además de prevenir errores
conseguiríamos que los ficheros ocuparan menos en el disco duro.

Potrebbero piacerti anche