Sei sulla pagina 1di 6

Lo que se emplea en las industrias son estos tipos de instrumentos que contribuyen al

proceso industrial. La terminología usad de estos, son definiciones generales de diversos


instrumentos utilizados, estos términos se unificaron para facilitar el entendimiento de
los agentes que intervienen; estos también pueden guiarse de ANSI/ISA-S51.1-1979.
Los instrumentos de control empleados en las industrias de proceso tales como química,
petroquímica, alimenticia, metalúrgica, energética, textil, papel, etc., tienen su propia
terminología; los términos empleados definen las características propias de medida y de
control y las estáticas y dinámicas de los diversos instrumentos utilizados: Indicadores,
registradores, controladores, transmisores y válvulas de control. La terminología
empleada se ha unificado con el fin de que los fabricantes, los usuarios y los organismos
o entidades que intervienen directa o indirectamente en el campo de la instrumentación
industrial empleen el mismo lenguaje. Las definiciones de los términos empleados se
relacionan con las sugerencias hechas por ANSI/ISA-S51.1-1979 (R 1993) aprobadas el
26 de mayo de 1995[…] (Creus,2010, p. 3)

Según mi investigación estos instrumentos son usados en varios campos industriales con
una terminología diferente con fin de hacer que los fabricantes con los proveedores
intervengan de una manera o otra en el campo de la instrumentación industrial.
Range es el conjunto de valores de unas variables de medición, se comprenden dentro
de los limites de su capacidad de medida, recepción o transmisión de dicho instrumento;
viene a establecer los valores mínimos y máximos. Un término derivado de este, es la
Rangeabilidad; dicho valor es calculado por los valores máximos y mínimos que nos da
el Range.
El campo de medida (range) es el espectro o conjunto de valores de la variable medida
que están comprendidos dentro de los límites superior e inferior de la capacidad de
medida, de recepción o de transmisión del instrumento. Viene expresado estableciendo
los dos valores extremos. Ejemplo: un manómetro de intervalo de medida 0- 10 bar, un
transmisor de presión electrónico de 0-25 bar con señal de salida 4-20 mA c.c. o un
instrumento de temperatura de 100-300 °C. Otro término derivado es el de dinámica de
medida o rangeabilidad (rangeability), que es el cociente entre el valor de medida
superior e inferior de un instrumento. Por ejemplo, una válvula de control lineal que
regule linealmente el caudal desde el 2% hasta el 100% de su carrera tendrá una
rangeabilidad de 100/2 = 50[…] (Creus,2010, p. 4)

En mi postura tomada, el Range es una herramienta necesaria para el desarrollo de la


industria, ya que con ello sabemos los topes máximos y mínimos del instrumento usado
en dicho proceso que emplearemos, ya sea en la planta, campo o en nuestros hogares,
como el termómetro; así notamos la importancia de esta.
Las medidas de desviación llamados errores dependen de las medidas teóricos o ideales,
y estos afectan dicho proceso; se clasifican en algunos casos, por dichos procesos
aplicados en ello y llamados por una terminología que va en contraste con ello, cuando
dicho proceso está en condiciones constantes se le llama erro estático. En otro tipo de
condiciones como las dinámicas, el error permuta de manera considerable, ya que sus
instrumentos tienen iguales características a los sistemas físicos: absorben energía del
proceso y esta transferencia requiere cierto tiempo para ser transmitida, lo cual da lugar
a retardos a la lectura del aparato. Si las condiciones siguen siendo dinámicas; existe el
llamado error dinámico en mayor o menor medida, su valor depende del tipo de fluido
del proceso, de su velocidad, de los medios de protección, etc. Si a los errores de cada
punto ya sea en forma crecientes y decreciente, se le hace su medida aritmética se le
atribuye el nombre de error medio. (Creus,2010, p. 5)
Yo puedo afirmar que la clasificación de algunos errores es necesaria para la industria,
dado que con estas sabemos en cuanto varían o como lo esta haciendo; así poder hallar
una solución optima que mejore el rendimiento de la producción.
Existe una variación al momento de medir el resultado hallado, esto se debe al valor
teórica y medido; ya que no siempre coinciden. Debido a que siempre habrá un margen
de error y será imposible hallar un único valor; a esto se le denomina Incertidumbre
(uncertainty).
Cuando se realiza una operación de calibración, se compara el instrumento a calibrar
con un aparato patrón para averiguar si el error (diferencia entre el valor leído por el
instrumento y el verdadero valor medido con el aparato patrón) se encuentra dentro de
los límites dados por el fabricante del instrumento. Como el aparato patrón no permite
medir exactamente el valor verdadero (también tiene un error) y como además en la
operación de comparación intervienen diversas fuentes de error, no es posible
caracterizar la medida por un único valor, lo que da lugar a la llamada incertidumbre de
la medida o incertidumbre (uncertainty). (Creus,2010, p. 6)

Desde mi punto de vista, la Incertidumbre (uncertainty) nos ayuda a poder darnos


cuenta del margen de error en una producción y poder minimizar este tipo de error, para
un mejor rendimiento; también ver si el margen de error esta en el intervalo dado por el
fabricante de dicho instrumento y así realizar trabajar con seguridad, sin riesgo a alguna
falla dentro de este campo.
Para poder hallar la Incertidumbre (uncertainty), tenemos que tener en cuenta que puede
ser hallado directamente con la ayuda de los instrumentos de medición o indirectamente
con método matemático que puedes tener un margen de error; estos cálculos se llaman
Mensurando ya que son funciones de magnitud de una serie de entrada y ser hallados
experimentalmente o por simples cálculos.
En el cálculo de la incertidumbre se usa el término mensurando que significa: magnitud
particular objeto de una medición. Puede ser medido directamente (por ejemplo, la
temperatura de un cuerpo con un termómetro) o bien de forma indirecta a partir de otras
magnitudes relacionadas de forma matemática o funcional (por ejemplo, la medida de la
densidad a través de la relación masa/volumen del cuerpo). El mensurando es, pues,
función de una serie de magnitudes de entrada y la expresión de esta función puede ser
experimental o ser un algoritmo de cálculo o bien una combinación. (Creus,2010, p. 7)

Tomando mi postura, hallar el Mensurado es algo que no debe ser despreciado, ya que
nos da los valores de las magnitudes que usaremos en el proceso de nuestro proyecto o
en el campo laboral, tomando en cuenta que debe ser hallado con un porcentaje de error
minimo, para poder tener un mejor resultado en lo que hacemos.
La Incertidumbre (uncertainty) se dividen en 2 tipos, las cuales se dan por errores a la
hora de medición en un instrumento o también por factores externos que intervienen en
la medición fija a la hora de hacer las lecturas correspondientes; por ello se divide En A
y B.
Hay dos incertidumbres A y B presentes en la medición. Las A se relacionan con
fuentes de error aleatorios y pueden ser evaluadas a partir de distribuciones estadísticas
(lecturas en el instrumento), mientras que las B están asociadas a errores de tipo
sistemático y corresponden a la incertidumbre del calibrador, la resolución del
instrumento y la influencia de otras magnitudes (temperatura, campos externos,
humedad, posición, etc.) que surgen del control de las condiciones de contraste o de la
experiencia previa del operador. (Creus,2010, p. 7)

Yo creo que estos tipos de Incertidumbre (uncertainty) son una clasificación que ayuda
a la mejora de la industria, ya que con estas reconocemos estos errores y podemos
seleccionarlos y aplicar las soluciones optimas para dicho proceso.
El proceso de hallar un análisis estadístico de una serie con sus respectivas magnitudes
es una clasificación de la Incertidumbre, pero si en caso que las estadísticas de estos son
nula, corresponde a otra calificación diferente de la incertidumbre; cuando necesitamos
hallar incertidumbre de tipo A se debe hacer por un análisis estadístico de una serie de
observaciones autosuficientes de su magnitud de entrada, pero con los mismos
caracteres de medida. Si se da el caso, de que los componentes evaluados
estadísticamente no existen, la calificación de la incertidumbre de tipo, correspondería a
la receptibilidad del instrumento a calibrar. (Creus,2010, p. 8)
Según mi investigación se debe realizar los análisis estadísticos de las magnitudes para
poder aplicar las medidas necesarias a calibrar el instrumento y darnos cuenta si es una
clasificación de la Incertidumbre (uncertainty) o la repetibilidad (repeatibility) del
instrumento.
Al tener experiencia y conocimientos de los instrumentos se puede anticipar algunos
resultados, debido a los datos del instrumento u otros actores que influyen en dicho
proceso; dependiendo de la experiencia o criterio se le da una gráfica, dicho esto para
poder hallar la incertidumbre de tipo B se debe tener un juicio basado en la experiencia
y en conocimientos generales. En definición es una postura científica argumentada de
una información que puede provenir de resultados de mediciones anteriores, por la
experiencia, por las especificaciones del fabricante, por los datos suministrados por
certificados de calibración u otros certificados. Dependiendo de la experiencia o postura
de la persona, esta asume una distribución rectangular, triangular y normal. (Creus,2010,
p. 9)
Según mi postura la incertidumbre es necesario para poder ver los errores sistemáticos que
puede presentar, así poder calibrar este instrumento a la exactitud que nos es más eficiente, ya
que estos influyen mucho en otras magnitudes.

Una cualidad de un instrumento de medición, sería dar unas lecturas aproximadas al


valor de dicha magnitud medida; llamado Exactitud (accuracy) la cual es aceptado como
un valor idóneo también dicho como un grado de conformidad del valor indicado.
La exactitud (accuracy) es la cualidad de un instrumento de medida por la que tiende a
dar lecturas próximas al valor verdadero de la magnitud medida. En otras palabras, es el
grado de conformidad de un valor indicado a un valor estándar aceptado o valor ideal,
considerando este valor ideal como si fuera el verdadero. El grado de conformidad
independiente es la desviación máxima entre la curva de calibración de un instrumento
y una curva característica especificada, posicionada de tal modo tal que se reduce al
mínimo dicha desviación máxima. (Creus,2010, p. 14)

Según mi postura la Exactitud (accuracy) es una cualidad indispensable, ya que nos


acerca al valor verdadero de una magnitud medida y así poder aprovecharla en la
calibración de los instrumentos de los cálculos tomados de estos y emplearlos en nuestra
área de trabajo.
La cualidad del instrumento que te da las lecturas más próximas del valor verdadero de
una magnitud se le llama Exactitud (accuracy), ya que esta cualidad define los errores
cuando el instrumento esta siendo usada en su labor durante un periodo de tiempo, para
poder saber cómo varía la exactitud se debe tomar en cuenta que está presente en cada
punto del campo de medida, debe ser indicado a veces se valor en algunas zonas de la
escala. Un ejemplo de esto sería la exactitud de un manómetro, en toda la escala podría
ser ± 2% y ± 1% en la zona central. En otro contexto para obtener la máxima exactitud
en un punto determinado de la escala debe calibrarse únicamente para ese punto de
trabajo, sin tomar en cuenta los demás valores del campo de medida. Un ejemplo por
este caso sería el de un termómetro de 273-443K y de ± 2% de exactitud en una
temperatura constante de 343K, debe ser calibrado en ese valor para que en ese punto de
trabajo sea máxima el valor que se puede obtener en el termómetro, tomando en cuenta
que para los valores no0 usados su exactitud será diferente de ± 2%. (Creus,2010, p. 15)

Yo creo que los valores de Exactitud (accuracy) son necesarios para tener un proceso
optimo y calibrar con mayor exactitud, teniendo en cuenta los valores de calibración que
se emplea en el campo realizado y poder tener un margen se seguridad para encontrar
los diferentes métodos de calibración del fabricante.
Estos valores de Exactitud (accuracy) ya están dados por los fabricantes de los
instrumentos y estos usados por nosotros los usuarios, sin embargo, los valores de estos
son guiados por los valores de una inspección de fábrica.
Hay que señalar que los valores de la exactitud de un instrumento se consideran, en general,
establecidos para el usuario, es decir, son los proporcionados por los fabricantes de los
instrumentos. Sin embargo, estos últimos también suelen considerar los valores de calibración
en fábrica y de inspección. Por ejemplo, un instrumento que en fábrica tiene una exactitud de
calibración de ± 0,8%, en inspección le corresponde ± 0,9% y la dada al usuario es ± 1% Con
ello, se pretende tener un margen de seguridad para compensar los efectos de las diferencias de
apreciación de las personas que efectúan la calibración, las diferentes exactitudes de los
instrumentos de medida utilizados, las posibles alteraciones debidas al desplazamiento del
instrumento de un punto a otro, los efectos ambientales y de envejecimiento, etc. (Creus,2010,
p. 15)

Yo creo que estos valores establecidos nos favorecen, ya que con estos se puede
manejar un margen de error según la calibración necesitada, ya sea por intervención de
factores externos que ponen en desbalance de lo que queremos, que es un margen de
error minimo.
Cuando hacemos la división del incremento de la señal de salida o de la lectura y el
incremento de la variable, se le llama Sensibilidad (sentivity), ya que es el motivo del
incremento de la señal de salida o de la lectura y el incremento de la variable se le
otorga el nombre se Sensibilidad (sentivity) la cual es ocasionado al entrar al estado de
repaso. Esta no debe ser confundida con la zona muerta, ya que antes si era difícil por el
concepto de un valor mínimo al modificar la variable, pero en realidad son términos con
definiciones simples pero distintas. (Creus,2010, p. 15)
Según mi postura la Sensibilidad (sentivity) es una cualidad importante para poder para
poder saber el porcentaje que tendrá el alcance de medida, ya que es el valor mínimo en
que se modifica una variable.
Esta cualidad es diferente a la de Exactitud (accuracy) porque la Precisión(precision)
nos da lecturas aproximadas unas a otros, también se diferencian en que en un
instrumento puede tener una Exactitud (accuracy) mala y una buena Precisión
(precision) y muchas lecturas, pero dichos valores serán diferentes, pero serán mínimos;
dándonos a saber que tiene una buena precisión (precision).
La precisión (precision) es la cualidad de un instrumento por la que ende a dar lecturas
muy próximas unas a otras, es decir, es el grado de dispersión de las mismas. Un
instrumento puede tener una pobre exactitud, pero una gran precisión. Por ejemplo, un
manómetro de intervalo de medida de 0 a 10 bar, puede tener un error de cero
considerable marcando 2 bar sin presión en el proceso y diversas lecturas de 7,049,
7,05, 7,051, 7,052 efectuadas a lo largo del tiempo y en las mismas condiciones de
servicio, para una presión del proceso de 5 bar. Tendrá un error práctico de 2 bar, pero
los valores leídos estarán muy próximos entre sí con una muy pequeña dispersión
máxima de 7,052 - 7,049 = 0,003, es decir, el instrumento tendrá una gran precisión.
(Creus,2010, p. 16)

Yo puedo afirmar que la precisión (precision) es algo que no debe falta, porque esta
presente en la mayoría de los instrumentos de medición esta, ya que es un intervalo de
medida, esta debe estar con un minimo error practico.
La capacidad de repetir las posiciones de una señal de salida en un instrumento es
llamada Repetibilidad (repeatibility), estos miden valores similares de una variable,
también es inversamente proporcional a los valores numéricos, ya que a menos
porcentaje tendrá más Repetibilidad (repeatibility), y los valores de señal de salida
tendrán que estar más óptimo.
La repetibilidad (repeatibility) es la capacidad de reproducción de las posiciones de la
pluma o del índice o de la señal de salida del instrumento, al medir repetidamente
valores idénticos de la variable en las mismas condiciones de servicio y en el mismo
sendo de variación, recorriendo todo el campo. La repetibilidad es sinónimo de
precisión. A mayor repetibilidad, es decir, a un menor valor numérico (por ejemplo, si
en un instrumento es 0,05% y en otro es 0,005%, este segundo tendrá más
repetibilidad), los valores de la indicación o señal de salida estarán más concentrados, es
decir, habrá menos dispersión y una mayor precisión. (Creus,2010, p. 16)

Según mi postura esta reproducción de posiciones nos da a entender las señales de


salida, como la precisión (precision) serán mayores y favorables para nuestra
producción.
Esta diferencia de los valores de señal de salida son la Histéresis (hysteresis) que son
expresados en porcentajes del alcance de medida.
La histéresis (hysteresis) es la diferencia máxima que se observa en los valores
indicados por el índice o la pluma del instrumento o la señal de salida para el mismo
valor cualquiera del campo de medida, cuando la variable recorre toda la escala en los
dos sentidos, ascendente y descendente. (Creus,2010, p. 17)

Según mi investigación la Histéresis (hysteresis) nos da la variación de una medida


tomada desde lo mas bajo a lo mas alto del instrumento, dándonos un porcentaje de
dicha variación.

Potrebbero piacerti anche