Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Capítulo I
Historia y fundamentos del control de procesos por computador
LA AUTOMATIZACION
La larga evolución de un conjunto muy variado de tecnologías con entidad propia, ha conducido
hasta el estado actual del denominado Control de Procesos por Computador (CPC).
Todas esas tecnologías cuentan con un alto grado de madurez y desarrollo, que más adelante
detallaremos. Pero también podemos estudiar el CPC como un elemento de un "todo" más amplio, sin
descomponerlo en sus partes. Y este "todo" es la AUTOMATIZACION. Tal es su importancia para el
mundo industrial y económico, que, no sólo se aprovecha de los logros de muy diversas tecnologías,
sino que, además, sirve de motor, acicate y ayuda para el desarrollo de todas ellas. Sin la automatización
no se conseguiría su evolución.
La ejecución de tareas, antes realizadas por el hombre, mediante máquinas, se da en todos los
ámbitos de la vida, sin tener por qué relegarse al trabajo industrial. A través de las máquinas, el hombre
aumenta su capacidad para hacer cosas a la vez que descarga sobre ellas aquellas actividades que pueden
considerarse menos propias del ser humano, como el esfuerzo, la potencia y la repetición sin variaciones,
reservando para sí la actividad creadora y el empleo de la inteligencia. La historia de la automatización
es la historia de este reparto de trabajos que, al fin y al cabo, constituye la historia del progreso de la
Humanidad.
La importancia de la automatización proviene del hecho de asumir las máquinas la parte más dura
del trabajo, la menos inteligente y, por lo tanto, la menos humana. Además, en la actividad industrial
esta importancia tiene también un fundamento económico por su conexión con la productividad. La
situación de la economía a todos los niveles exige disponer de una industria competitiva y para
conseguirlo, hay que disminuir el coste de los productos y mejorar su calidad. Ambas cosas requieren
3
En las últimas décadas esta aceleración ha crecido con tal rapidez, que en estos últimos años,
puede hablarse de una auténtica explosión. En la década de los 40, la teoría de Control automático y la
Electrónica vienen a revolucionar la industria, cuya automatización hasta entonces se apoyaba en la
mecánica, la hidráulica, la neumática y la electromecánica. Con los primeros computadores se consigue
un salto cualitativo en la industria al que sigue, posteriormente, el desarrollo de la electrónica digital. Al
comienzo de los 70, la expansión de la informática y la aparición de los microprocesadores supone un
nuevo impulso que permite la aplicación de la automatización a nuevas tareas y la potenciación de
máquinas extraordinariamente necesarias, como los controladores lógicos programables, los reguladores
multibucle y los robots, entre otros.
La automatización puede introducirse, prácticamente, en todas las tareas que el hombre considera
como trabajo. Sin embargo, no será la misma para todas ellas, pues por ejemplo, la automatización de
las actividades de gestión, económicas y administrativas, que se dan en el sector de servicios (como la
existente en bancos, hoteles, o en la misma Administración Pública), es completamente distinta de la
necesaria en una instalación industrial. Pero, incluso dentro de la industria, hay dos tipos muy distintos
con problemas diferentes y en los que su automatización ha evolucionado a ritmos también dispares. Por
un lado, tenemos la industria con procesos de tipo continuo (se trabaja realmente de forma continua o
por coladas u hornadas, batch). Estos procesos son básicamente de tipo químico y se conocen como
procesos de producción o simplemente procesos. Por otro, están los de tipo discontinuo, en los que se
trabaja sobre piezas discretas independientes entre sí, que luego se unen para obtener equipos o sistemas.
Es la industria de los procesos de fabricación, o la industria de fabricación.
En los "procesos", las materias que se manipulan son casi siempre gases o líquidos, y, cuando
no es así, no se opera sobre unidades individuales, sino sobre un flujo de producto. Esta diferencia es
esencial con los "procesos de fabricación" que trabajan sobre cada pieza o unidad, con tratamiento
individual y a ella se debe que la automatización de ambos tipos, haya tomado hasta hoy rumbos y ritmos
distintos. Solamente con la llegada de los robots y de lo que se conoce como automatización flexible,
ha sido posible dar el salto en la automatización de una tarea concreta con una máquina particular para
una pieza determinada, dentro del conjunto de las operaciones de una instalación para una gama de
piezas relativamente amplia. Todo ello se ha basado en el servocontrol de posición para controlar los
4
movimientos.
En la Tabla Nº 1.1 se presenta un cuadro con las diferencias más importantes en una serie de
características, entre la automatización de los procesos de producción y la de los de fabricación.
Tabla Nº 1.1 Principales diferencias entre la automatización de los procesos de producción y los de fabricación.
No debemos olvidar que el CPC es, como hemos dicho, el fruto de la integración de los logros de
diversas disciplinas y tecnologías, siendo muy difícil señalar la más importante, al jugar todas un papel
destacado, aparte de su mutua dependencia. Las más relevantes son:
Antes del siglo XX ya se había planteado el problema del mando de los procesos de forma
automática, llegándose en algunos casos a soluciones asombrosas para la época. El ejemplo más
conocido es el llamado "governor" (o Controlador) de Watt, para el control de una máquina de vapor.
Sin embargo, durante mucho tiempo, el control se llevó a cabo de una forma totalmente manual o
humana. Aún hoy se encuentra este tipo de "control" en algunas actividades artesanales (alfareros, for-
jadores, etc.). Los sentidos del operario miden la evolución del proceso para corregir las desviaciones
existentes, comprobando que las acciones llevadas a cabo tienen el efecto previsto, hasta conseguir
alcanzar el comportamiento deseado. Esta forma de trabajar, que en muchos casos da resultados
satisfactorios para lo que se pretende, se dice que es "by-guess-and-by-golly" (por adivinación y
salivazo), ya que así es como controlaban sus hornos, antiguamente, los fabricantes de porcelana: el
operario escupía sobre el horno y, si la saliva no se evaporaba inmediatamente, era necesario más
combustible.
Este control manual depende totalmente de la apreciación subjetiva del operario con las
consiguientes variaciones en la calidad del producto resultante.
Para que el mando se realice de forma automática es preciso "sustituir al hombre" (el Iiveware,
como algunos han dado en llamarle frente al software, hardware, firmware...) por un dispositivo físico,
que automáticamente realice las tareas de comparación y producción de la acción correctora. El operador
se ocupa entonces de establecer el patrón de comportamiento con el que ha de compararse (en la fase de
puesta en marcha principalmente), para fijar la forma en que el dispositivo debe determinar la acción
correctora.
Toda esta evolución en el control de procesos tuvo lugar en un largo período de tiempo. Los
6
dispositivos empleados eran básicamente neumáticos o mecánicos. Aunque el control era todavía un
arte basado en la intuición, las consideraciones eran principalmente cualitativas más que cuantitativas y
las diferentes partes del proceso se medían y controlaban independientemente. El conocimiento del
proceso era aún muy escaso y el control se consideraba teniendo en cuenta, únicamente, los equipos y
la instrumentación.
El cambio se produce durante la II Guerra Mundial, al ser necesarios los sistemas de control. Los
trabajos de Nyquist, Black, Rynorslay y otros, basados en el estudio del comportamiento en el dominio
de la frecuencia por haberse desarrollado en la teoría de circuitos, empiezan a constituir un cuerpo
teórico en sí mismos, conocido como teoría de servomecanismos o de control por realimentación, que
se intenta aplicar al estudio del control de otros sistemas, tales como los procesos de producción.
Simultáneamente prosiguen los estudios (como los de Campbell), sobre la dinámica de los procesos, y
todo ello permite plantear el control de proceso por primera vez sin considerar únicamente la instru-
mentación, sino teniendo en cuenta, además, el conjunto proceso-instrumentación y proceder al diseño
de los sistemas de control de procesos con técnicas cuantitativas.
A partir de este momento, la evolución continúa con ritmo creciente, incorporando, no sólo los
estudios teóricos de la teoría de control, la optimización y la dinámica de los procesos, sino también los
avances en equipos: sensores, controladores, electrónica, computadores y microprocesadores, según van
apareciendo.
Al principio, los controladores fueron neumáticos para verse, poco a poco, desplazados por los
electrónicos, aunque cada proceso seguía disponiendo de su propio controlador. A la vez que se
desarrolla la electrónica, aparecen los primeros computadores empleados para el control de procesos.
Ello favorece la tendencia, aparecida hacia mediados de la década de los 50, de concentrar todos los
controladores o reguladores en un solo lugar, con lo que se tiene el control centralizado, de forma que
un operario puede vigilar el funcionamiento de diferentes magnitudes de un proceso o de varios procesos
interdependientes de una fábrica. Cuando se emplea un computador, éste puede desempeñar el papel de
varios controladores, para vigilar simplemente el funcionamiento de éstos, o incluso a fijarles las
referencias. La llegada del computador hace que los controladores incluyan la posibilidad de ser
gobernados por aquél como una opción.
Incluso los sistemas de control de procesos centralizados, pero que no poseen un computador,
tienen una serie de inconvenientes muy importantes:
La introducción del computador tiene por objetivos (y en función de cómo los alcanza, así se
justifica) aumentar la productividad y homogeneidad del producto, lo que, en el fondo, también se
traduce en un beneficio económico notable, por menor precio del producto y mejor utilización de las
materias primas. En cuanto a la productividad, puede medirse por varios índices siendo los más
utilizados, el valor del producto por unidad de inversión, por trabajo realizado o por materias primas
empleadas. Se puede considerar al conjunto de los tres como el índice más representativo.
8
Desde el punto de vista del control se pueden considerar dos tipos muy diferentes de actuaciones,
ya reflejados de alguna manera en la Tabla Nº 1. Un tipo trata del valor que han de tomar las variables
del proceso, haciendo que su evolución siga un determinado comportamiento, o manteniendo un valor
deseado. Es la regulación. El otro, se fija en la generación de señales, que normalmente son de tipo
binario para el mando de las etapas o acciones del proceso, en función de la combinación, temporizado
y/o secuenciado, de otras acciones de éste. En la Tabla Nº 1.2 se pueden ver las diferencias entre ambos
tipos de actuaciones.
BIBLIOGRAFIA
1. Lee, T.H., Adams, G.E., Gaines, W.M.: "Computer process control: Modelling and optimization".
John Wiley, 1968.
Capítulo II
Regulación
La regulación es el núcleo el alma de la teoría del control automático, que es a su vez, la teoría
matemática en que se apoya la automatización. Sus principios y resultados se aplican continuamente en
la industria y en la vida diaria para conseguir que el funcionamiento de máquinas, equipos y dispositivos,
se realice según lo establecido. A nuestro juicio, la regulación es uno de los principios básicos de la
vida. Lo mismo que la inercia, que no es otra cosa que la expresión física del principio vital de la resis-
tencia al cambio a cualquier cambio de situación, y para que se produzca ese cambio haga falta realizar
un esfuerzo, la regulación es la formalización y reducción a ecuaciones del principio del aprendizaje y
la corrección por la experiencia. Antes de su formulación matemática y de sus técnicas de utilización,
ya se había utilizado en la práctica: el primer trabajo notable fue el regulador centrífugo de Watt para
controlar la velocidad de una máquina de vapor, en el siglo XVIII.
En este capítulo vamos a presentar los principios básicos del control automático. en el que la
regulación es la técnica central, junto con los problemas asociados y la forma de resolverlos, dejando
para el siguiente la descripción de las técnicas mas modernas disponibles hoy en día para realizar este
control.
DEFINICIONES. LA REALIMENTACION
El control aparece cuando queremos que una propiedad o variable, que caracteriza a una operación
o a un proceso, tome un determinado valor o conjunto de valores, y estos dependen de los que, a su vez,
tome otra propiedad o variable, al existir entre ambas variables una determinada relación de dependencia
que representamos por un modelo. Variando una de ellas, podremos controlar los valores de la otra y
precisarlos. En la Fig. 2.1 se representa esta situación con la nomenclatura utilizada: la variable primera,
que queremos tome unos valores determinados, recibe el nombre de variable de salida o salida,
simplemente, mientras que la otra, es la entrada, también conocida como señal de control.
Fig. 2.1.- El control de un proceso se lleva a cabo cuando se puede regular el valor de la
variable de salida variando la señal de control o entrada.
Cuando se conoce la relación entrada/salida y ésta no varía, es suficiente con que la entrada tome
10
Fig. 2.2. - Los factores más importantes que alteran el comportamiento del proceso son las
perturbaciones y la carga.
La forma de conseguir que la salida no sea afectada, o lo sea en menor grado, por las
perturbaciones, las variaciones de la carga o las inexactitudes o simplificaciones en el modelado y, a la
vez, corregir las desviaciones que se produzcan, es utilizar esa misma salida para generar las órdenes o
valores de entrada, de forma que, no sólo se alcance dicho valor deseado, sino que, además, corrija las
desviaciones que pueden producirse. Tenemos así un control en lazo o bucle cerrado. Sus elementos
aparecen en la Fig. 2.3. La salida del proceso se mide mediante el dispositivo adecuado y su valor se
compara con el deseado, denominado consigna o referencia. La diferencia entre ambos valores es el
error existente, que, a su vez, sirve de señal de entrada a un dispositivo que calcula el valor que debe
tener la entrada o control para cada error. Este dispositivo recibe el nombre de controlador o regulador.
11
La señal que genera se manda al actuador, que es el encargado de que dicha entrada se produzca.
Con esta estructura, el sistema total se autocorrige de las posibles desviaciones, mediante la
introducción de un retorno y un dispositivo controlador. Este retorno se conoce como rama de
realimentación o simplemente realimentación que es "negativa" puesto que se resta de la consigna.
También puede existir la realimentación positiva. En la práctica esta realimentación se da siempre
aunque el controlador puede no ser un dispositivo, sino un hombre. Si un tanque se está llenando y, a la
vez, se vacía, controlado por un operario encargado de que el nivel del líquido se mantenga todo lo
posible, el operario es el elemento medidor de la altura al compararla con la que debe mantenerse y,
actúa como controlador: si el nivel está más alto, disminuye el caudal de entrada y, si está más bajo, lo
aumenta.
COMPARADOR CONTROLADOR
COMPARACION ERROR ENTRADA SALIDA
SALIDA=REFERENCIA 0 NULA SE MANTIENE
SALIDA> REFERENCIA NEGATIVO NEGATIVA DISMINUYE
SALIDA<REFERENCIA POSITIVO POSITIVA AUMENTA
Vamos a considerar brevemente los elementos que forman parte del bucle de control, indicando
su participación en el control y sus particularidades. El proceso en sí y el controlador se tratarán de
forma especial.
Medida
Para que el control sea automático, la medida debe serlo también y realizarse en un período lo
suficientemente corto respecto a la evolución del proceso, como para que frente a éste pueda
considerarse como continuo. Es preciso, entonces, disponer de dispositivos sensores de la variable a
medir y elaborar la información que nos dan, de forma que tengamos una buena medida.
Referencia
La referencia establece el valor que, en cada instante, debe tener la salida del proceso. Su valor,
por tanto, debe venir fijado a un nivel superior, de acuerdo con la evolución global de la factoría. Para
el control automático, el lazo de control tendrá dos comportamientos distintos. Si la referencia se
mantiene fija, el control sólo tiene en cuenta las perturbaciones y actúa para corregir las variaciones que
producen en la salida: es el problema del regulador. Si la referencia va variando su valor, el control
debe hacer que la salida siga esos cambios y, normalmente, no tiene en cuenta otros, debidos, por
ejemplo, a las perturbaciones; es el problema del servomecanismo.
Actuación
Para poder plantear el problema del control de un proceso se hace imprescindible conocer cómo
se comporta éste, cómo evoluciona su salida para determinadas evoluciones de la entrada. Normalmente,
este conocimiento del proceso o no es completo, o es tan complejo de expresar mediante una formulación
matemática, que no resulta útil o manejable para el control. Esta formulación abstracta del
comportamiento del proceso es lo que se conoce como modelo. La representación de fenómenos por
modelos es una actividad connatural de la Ciencia, que intenta explicar cuanto ocurre, indicando que un
determinado fenómeno se comporta "como si...".
Desde el punto de vista del control sólo interesa conocer el comportamiento interno del proceso,
en cuanto nos permite describir sus interacciones con el medio exterior. El modelo a elaborar depende,
por tanto, de su utilización, es decir, en nuestro caso, debe describir el comportamiento de la salida a lo
largo del tiempo, en función de las entradas y perturbaciones que pueda recibir el sistema.
Para el modelado de un sistema hay dos técnicas totalmente diferentes que nos llevan a los modelos
de conocimiento y de representación.
Modelado de conocimiento
Es el que se realiza a partir del conocimiento que se posee a priori del funcionamiento del proceso,
y que se obtiene a partir de las leyes físicas que rigen los fenómenos que tienen lugar en él. Las
operaciones a realizar en este modelado son siempre las mismas. El primer paso es la definición del
proceso, determinando sus límites, sus entradas, por las que el exterior actúa sobre él, sus salidas o las
características que tienen interés y las restricciones y condicionantes a que puede estar sometido. A
continuación, deben establecerse las hipótesis de trabajo sobre el funcionamiento del sistema que
permitan abordar el modelado y describir el estado del sistema. Se estudia entonces el empleo de las
leyes físicas para la construcción del modelo; normalmente se realiza mediante el establecimiento de
balances de masa, energía o fuerza, haciendo intervenir las leyes de Física y Química. Tanto la elección
de las hipótesis, como la escritura de las ecuaciones del proceso, requieren una buena comprensión de
su funcionamiento. Si esto es así, al final de esta etapa dispondremos de una serie de ecuaciones que
expresan el modelo de conocimiento, pero cuyos coeficientes pueden ser totalmente conocidos o no. Si
no ocurre así, será preciso abordar una nueva etapa de determinación del valor de dichos parámetros por
técnicas de ajuste u otros métodos. Con el modelo así obtenido hay que proceder a su validación,
comprobando si describe el funcionamiento del proceso con precisión suficiente para las aplicaciones
previstas. Finalmente, la evaluación definitiva se produce en la utilización del modelo realizado,
comprobando si sus predicciones se ajustan al comportamiento real del proceso.
14
Modelado de representación
Esta técnica, se basa en suponer que el proceso se comporta de acuerdo con una expresión matemática
escogida a priori, normalmente una ecuación diferencial de grado n (que puede valer 3, 4 ó 5), lineal de
coeficientes constantes, completable con un retardo puro. En este caso se desconocen todos los
coeficientes y se procede, como en el modelado por conocimiento, a partir de la etapa de identificación
y ajuste de los parámetros. Existen técnicas para obtener modelos sencillos de procesos complejos y
determinar cuál es el orden del modelo que mejor se ajusta al comportamiento real y el valor de los
parámetros de este modelo.
Los modelos pueden ser de muchos tipos: continuos, cuando las variables toman valores en
cualquier instante o discretos, cuando los toman sólo en instantes prefijados, periódicos o no. Estos
modelos discretos son muy apropiados para el control digital mediante computadores. Pueden ser
determinísticos, si se toman valores perfectamente predecibles, o estocásticos, si las señales están
contaminadas por ruidos aleatorios, de parámetros concentrados, si se expresan por funciones
dependientes del tiempo, y su comportamiento se describe entonces por ecuaciones diferenciales
ordinarias, o de parámetros distribuidos, que se expresan por funciones dependientes del tiempo y el
espacio, y se describen por ecuaciones diferenciales en derivadas parciales.
Todos estos tipos pueden ser lineales, cuando la suma de acciones produce un efecto suma de los
efectos, o no lineales. Estos últimos son mucho más difíciles de tratar, por lo que se establecen modelos
simplificados, linealizados. Para conseguirlo, se toma un punto de funcionamiento y se deduce del
modelo no lineal, derivándolo, un modelo de las variaciones del modelo alrededor de dicho punto, pero,
considerando sólo las primeras derivadas.
Normalmente, los modelos que se utilizan son del tipo dinámico, pues describen la evolución del
proceso en función del tiempo. En determinados casos, cuando esta evolución es lo suficientemente
rápida como para que pueda ser despreciada, el modelo describe únicamente el funcionamiento del
proceso en el equilibrio, tratándose de un modelo estático. Cuando esto ocurre, y el proceso está en
equilibrio, se dice, también, que se encuentra en estado estacionario. Al producirse un cambio en una de
las entradas, el proceso evoluciona hasta alcanzar un nuevo estado estacionario. Esta evolución, función
del tiempo, se denomina transitorio del sistema.
Para la representación del modelo en el caso de ser lineal continuo se suele emplear la
transformada de Laplace, que consiste en una proyección del sistema sobre el plano complejo, con lo
que la ecuación diferencial se convierte en algebraica, función de la variable s compleja, que transforma
las integraciones en divisiones por s y las derivadas del tiempo en productos por s, facilitando
extraordinariamente el cálculo. El proceso queda representado por un coeficiente de polinomios en s,
conocido como Función de transferencia, que representa la relación entrada/salida. De ella se obtienen
los parámetros que caracterizan al sistema, las constantes de tiempo que indican su velocidad de
respuesta en los transitorios, el tiempo de retardo que nos informa del tiempo transcurrido desde que se
produce una variación en la entrada hasta que se empieza a notar su efecto en la salida, y la ganancia,
que es la relación entra la variación producida en la salida y la variación de la entrada que la genera.
15
Esta representación del proceso mediante la función de transferencia se conoce como representación en
el dominio de la frecuencia, ya que, mediante una sustitución de la variable s, nos es posible conocer
cómo se comporta el sistema frente a señales oscilatorias de distinta frecuencia, y así definir
perfectamente las características del sistema.
En el desarrollo de técnicas avanzadas de control, suele emplearse con gran frecuencia una
representación función del tiempo. En el modelado y descripción del comportamiento de un sistema,
son de gran interés las formas de conocer la bondad de dicho comportamiento. Independientemente de
la estabilidad (de la que citaremos algunas ideas posteriormente) cuando se trabaja en el dominio del
tiempo, para comparar el comportamiento de distintas estructuras de control del sistema se utilizan
señales de prueba normalizadas. De todas ellas, la más conocida es el salto-escalón en la entrada, que es
el paso de un valor constante a otro. Como especificaciones o índices de comportamiento a un salto-
escalón unitario, se emplean los representados en la Fig. 2.5
Para obtener las características de un proceso en el dominio de la frecuencia, se emplea una señal
senoidal de frecuencia creciente, barriendo todo el espectro de frecuencias, obteniéndose las curvas de
ganancia/frecuencia y de desfase/frecuencia. Como índices de comportamiento, se tienen los definidos
en la Fig. 2.6
CONTROLADORES
Toda la teoría de control automático gira alrededor del diseño del controlador apropiado a cada
proceso, dependiente del modelo que se utilice y de las exigencias de funcionamiento impuestas, así
como, también, de la realización de dicho controlador. Este representa la lógica de actuación sobre el
proceso, función del comportamiento de este último, o mejor, de la desviación de su comportamiento
real respecto del deseado. Tiene, por tanto, como entrada, el error existente en el comportamiento del
sistema, y, como salida, la actuación que debe ejercerse sobre el proceso.
Debido a la rama de realimentación necesaria para el control automático, puede presentarse el
fenómeno indeseable de la inestabilidad, o pueden aparecer oscilaciones en el comportamiento del
proceso. Se dice que un proceso es estable cuando para entradas, con valores dentro de unos límites, las
salidas también se mantienen dentro de otros límites. Si introducimos una señal finita de entrada, dentro
de unos límites aceptables, y se comporta de tal forma que tiende a aumentar continuamente su salida,
sin límite, el proceso es inestable. Los procesos cuyo modelo es lineal, si son estables en unas
circunstancias, lo son en todas, no dependiendo de la señal que se les introduzca. No ocurre lo mismo
con los procesos no lineales, que pueden ser estables para unos determinados valores de la entrada pero
dejar de serlo para valores mayores.
Una forma especial de inestabilidad son las oscilaciones. Pueden amortiguarse rápida o lentamente
o, incluso, con un comportamiento abiertamente inestable, crecer en amplitud indefinidamente. El
controlador tiene por misión eliminar o reducir la inestabilidad de los procesos que son inestables en sí
mismos. Pero el empleo de la realimentación puede hacer que un proceso que no es inestable en si
17
mismo, mediante la realimentación dé lugar a un sistema de comportamiento inestable (lo cual ocurre
siempre que una acción correctora del error en lugar de reducirlo, lo aumenta) y debido al bucle, este
fenómeno se ceba en si mismo provocando el descontrol del proceso.
La estrategia normalmente empleada en los controladores es llevar el error a cero lo antes posible
y sin oscilaciones, tanto si es debido a perturbaciones, como a variaciones en la carga o a cambios en la
consigna. En la industria, los controladores más usados han sido los todo/nada (válvulas de dos
posiciones, por ejemplo) y los basados en las acciones: proporcional. integral y derivadora, debido a que
con ellos se conseguía un funcionamiento aceptable en la mayor parte de los procesos (una mejora
sustancial respecto al control manual por operador, tanto en funcionamiento como en calidad de
producto), y porque se consiguió construirlos, con las tecnologías existentes en cada época, aunque,
hasta hace muy poco, sólo existían los de tipo analógico.
TIPOS DE CONTROLADORES
El controlador más sencillo es el todo/nada. Su utilización más corriente tiene lugar cuando su
acción desencadena la evolución del proceso en un sentido y su inhibición lleva al proceso a evolucionar
en sentido contrario.
En la práctica, el comportamiento todo/nada, tipo relé, no es puro, sino que va acompañado de una
histéresis, tal y como se representa en la Fig. 2.7.- El paso a la acción no se da exactamente para el valor
fijado, sino para un valor un poco superior y el paso a la inhibición se realiza para un valor inferior al
fijado. Estos umbrales hacen que se produzca una oscilación de la salida alrededor del valor de la
referencia, tal y como puede verse en la Fig. 2.7.-
El control proporcional provoca una señal de salida proporcional a la de entrada, o sea, al error.
La constante de proporcionalidad recibe el nombre de ganancia y su valor se puede fijar de acuerdo con
las necesidades de control del proceso. Algunas veces, en lugar de la ganancia, K, se utiliza su inversa
multiplicada por 100, que recibe el nombre de banda proporcional. Se trata de un control muy sencillo,
estable y fácil de ajustar, pero plantea el problema de que, si aparece un error estacionario, no es capaz
de eliminarlo.
Para eliminar un error de este tipo se emplea el control integral, cuya señal de respuesta es
proporcional no al error, sino a la integral de éste.
Fig. 2.8.- Acciones de los modos de control según las diferentes entradas
19
En la práctica, los controles integral y derivador no se suelen emplear solos, sino unidos al
proporcional. El control proporcional integral (PI) tiene una salida suma de dos términos, uno
proporcional al error y otro proporcional a la integral del error. Por lo tanto, han de fijarse dos pará-
metros, K y T~. Este tipo de control elimina el error estacionario y tiene mejor respuesta dinámica que
el control integral sólo, pero, debido al término integral, puede producir inestabilidad en el sistema. El
control proporcional-derivador (PD) tiene una salida suma, también, de dos términos, u no proporcional
al error y otro, a su derivada. Tiene las ventajas de ser estable, dar menor error estacionario que el control
proporcional sólo (aunque no lo elimina) y ofrecer una rápida respuesta.
de (t )
A = Ke (t ) + T1i ò e (t ) dt + Td
dt
El controlador PID es el mejor de todos cuando está bien ajustado, es decir, si los valores de los
parámetros K, Ti y Td (ganancia, constante de integración y constante de derivación respectivamente),
son los más apropiados al proceso y al control deseado.
Proporciona una respuesta rápida y, a la vez, elimina el error estacionario. Sin embargo, al ser el
más complejo, es también el más difícil de ajustar. Existen métodos de aproximaciones sucesivas para
ajustar o sintonizar los parámetros de un controlador PID sobre un proceso de dinámica complicada que
no se conoce bien aplicándose hasta que se logra la respuesta deseada. Estos métodos de tanteo se
han ido desarrollando gracias a la experiencia de su empleo por parte del personal encargado del control
de las diferentes clases de fábricas. Este ajuste del controlador es, sin embargo, mucho más sencillo
cuando se conoce un modelo del proceso y puede, entonces, realizarse teóricamente con un pequeño
ajuste final en la instalación, si fuera necesario. En la Fig. 2.9 se presenta la respuesta de los distintos
tipos de controladores para una entrada "salto". Se ve cómo el PID tiene el menor rebase, con los tiempos
de rebase y de asentamiento más cortos (respuesta más rápida) y no presenta error estacionario.
BIBLIOGRAFIA
1. Dormido, S y Prada de, C: "Fundamentos y técnicas básicas en el control de procesos por ordenador",
Notas del IV Curso "Automática en la Industria", Peñíscola, mayo1984. Ed. AEIA
4. Takahashi, Y; Rabins, M.J, y Auslander, D.M.: "Control and dynamic systems Addison-Wesley
Pubí. Co., 1970.
21
Capítulo III
Técnicas modernas de control
Durante mucho tiempo las variables de una fábrica se relacionaban dos a dos, según el
conocimiento de su funcionamiento, tomando una como entrada y otra como salida (que era la que nos
interesaba controlar), y se establecían lazos de control con su controlador correspondiente. Se conseguía
así un funcionamiento automático de cada bucle en funcionamiento normal, pero seguía habiendo
problemas. La puesta en marcha de la fábrica no permitía el empleo de los controladores tal y como
estaban y la única solución posible, con la tecnología existente para realizar los controladores (neumática
o electrónica analógica), era conmutarlos a "manual" y que fuera el operador quien actuara sobre el
proceso. Esta solución era factible dada la lentitud de todos estos procesos, con muy elevadas constantes
de tiempo.
Pero resultaba que este tipo de controladores presentaba algunos problemas: había lazos que no
eran independientes y los controladores tenían que estar relacionados, los procesos eran mucho más
complejos en la realidad y existía una dependencia total entre todos los procesos y entre todas las
actividades de la factoría. Para conseguir mejorar el rendimiento total, había que mejorar el control. Tres
líneas de avance han sido las que han permitido realizar esta mejora con beneficios económicos
sustanciales:
Dejando para temas posteriores el control con computador como una visión más general del
control, vamos a exponer en este capítulo las mejoras introducidas en los controladores al emplear
tecnología digital y las nuevas teorías de control empleadas para resolver determinados problemas del
control de procesos.
almacenados como constantes. Esto permite introducir variantes a las ecuaciones de descripción del
control PID, de acuerdo con los intereses de cada caso, y que luego se introducen en el controlador con
pequeñas modificaciones en los programas. Una variante de la forma típica del algoritmo PID consiste
en que la componente derivadora se toma proporcional no a las variaciones del error, sino sólo a las de
la señal de salida del proceso, evitándose así las grandes acciones del controlador cuando se producen
cambios importantes en la referencia.
Otra variante muy utilizada es considerar que el término derivador contiene un filtro, realizado
normalmente mediante una constante de tiempo o promediando cuatro o más medidas, con lo que se
consigue eliminar las componentes de alta frecuencia que puedan existir en la salida del proceso y que
darían lugar a variaciones elevadas en el control. Esto también se puede lograr mediante un filtrado
apropiado de las medidas antes de ser utilizadas para el control. A veces, se recurre a eliminar la
referencia del término proporcional, además de hacerlo del derivador. Esta estructura tiene la
característica de que la diferencia entre los valores obtenidos para los parámetros del controlador, si se
ajusta éste para compensar las variaciones en la referencia y si se hace para las perturbaciones en el
proceso, es menor que con otras estructuras. En la Fig. 3.1 se pueden ver esquemas de estas estructuras.
R es la referencia, U es la salida del controlador, entrada al proceso, e Y es la salida de éste. En los
controladores comerciales con microprocesadores y en los paquetes de programas de control se incluyen
algoritmos PID con no linealidades.
En los controladores comerciales con microprocesador se han incluido en los algoritmos recursos
para resolver los dos principales problemas operacionales que se presentan en los controladores PID: el
paso de manual a automático y la saturación de la salida del controlador. Para el primero se utiliza la
transferencia sin salto (bumpless) y para el segundo existen varios métodos, cuya acción básica es limitar
el término integral (reset wind up).
i (t ) = m (t ) - Ke (t )
23
Un controlador que contiene término integral es inestable y puede dar lugar a problemas si se
satura la salida del controlador. Al seguir aumentando el error del sistema, el término integrador sigue
creciendo y el retorno a valores normales llevará mucho más tiempo del necesario y hará falta gran
cantidad de error de signo contrario para contrarrestar la integración del error producida antes, dando
esto lugar cuando menos a una oscilación. Esto no ocurre (como pasaba con la transferencia sin salto)
si el algoritmo está en forma incremental, pero sí cuando está en forma normal (de valores de las
variables, no de variaciones). La forma de corregirlo suele ser limitar los valores que puede tomar el
término integral, al igual que ocurre con la salida. Otras formas alternativas, con el mismo efecto, se
basan en utilizar una interrogación condicional, que sólo se tiene en cuenta si el error es pequeño, o,
también, recalcular el término integral, de forma que, si la salida del controlador rebasa uno de sus
límites, el término integral se reduce para que dicha salida tome exactamente el valor del límite
sobrepasado.
24
En los procesos hay determinadas situaciones en las que es preciso controlar más de una variable.
Entonces, los controladores, deben estar relacionados por no ser independientes los lazos. Vamos a
dedicar este apartado a describir los casos más importantes en que esto ocurre.
Control en cascada
Se trata de una configuración de control relativamente poco utilizada pero que puede aportar unas
mejoras sustanciales sin coste adicional, debido a que la nueva variable, que es preciso medir,
normalmente lo está siendo, ya que los reguladores comerciales actuales suelen incluir un segundo
controlador capaz de funcionar en cascada. El control en cascada se emplea cuando una propiedad de la
variable de entrada al proceso (que no es sobre la que el controlador actúa), trabaja como perturbación
de la salida. Veámoslo claramente con un ejemplo: Supongamos que tenemos un tanque de reacción con
producción de calor y hay que controlar su temperatura. Lo realizamos haciendo circular agua fría por
una camisa que envuelve al tanque. La regulación se hace midiendo la temperatura del baño y
controlando el caudal del agua fría de entrada a la camisa, tal y como aparece en la Fig. 3.2.
Es evidente que la temperatura del agua fría de entrada perturbará la temperatura del tanque, que
deseamos controlar, ya que, para la misma necesidad de enfriamiento, y, por lo tanto, el mismo caudal
de agua fría, esta enfriará más o menos según su propia temperatura. El control en cascada elimina estas
perturbaciones. Para eso utiliza dos controladores seguidos, de forma que la salida del controlador
primario sirve de referencia para el secundario y cada controlador responde de un bucle de
control: el secundario, del bucle más interno, que debe tener una dinámica más rápida, y el primario, del
25
bucle más externo, que es el principal y que posee una dinámica más lenta. El proceso queda también
descompuesto en dos bloques unidos en serie representando los dos efectos que tienen lugar. En la Fig.
3.3 puede verse un diagrama de bloques de una configuración en cascada y en la 3.4 cómo se traduciría
ésta para el ejemplo de la Fig. 3.2
Para el ajuste de los controladores se procede del interior al exterior. Se analiza el bucle interno
sólo y se ajusta el controlador interno, que normalmente es suficiente con un Proporcional, o un PI si la
ganancia es pequeña, ya que los errores estacionarios los corregirá el controlador primario. Se reduce
entonces el bucle interno, con el controlador secundario, a un solo bloque y se analiza el bucle exterior
ajustando de forma independiente el controlador primario.
Control anticipativo
26
El controlador anticipativo sólo es válido para ese tipo de perturbación, de forma que no actúa
sobre otra cualquiera que se pueda producir. Además, se trata de un control en bucle abierto, lo que hace
que, en la práctica, no se emplee solo, sino junto a un control con realimentación. En este caso, el
controlador de realimentación elimina las imprecisiones del controlador anticipativo y los efectos de
otras perturbaciones.
Control de proporción
También llamado control ratio o fraccional, se emplea en procesos de mezcla de dos o más
componentes donde se busca de una composición uniforme. La técnica normal es utilizar un controlador
de caudal para uno de los componentes y con un controlador ratio, controlar el caudal del segundo
componente. El controlador ratio tiene como referencia la salida del otro proceso (el caudal del primer
componente). Por esta estructura puede confundirse a veces con el control en cascada, aunque su
filosofía es completamente diferente. Otra solución aceptable es prescindir del primer controlador, y
utilizar la medida de caudal del primer componente solamente y el controlador ratio, que hará que el
caudal del segundo sea proporcional al medido del primer componente.
Control override
Consiste en controlar dos o más variables de un proceso con un solo controlador actuando sobre
una entrada única. Se trata, en la práctica, de dos controladores diferentes, dos filosofías de control,
elegibles según cierto criterio para saber cuál de las dos se debe emplear en cada momento para
determinar la actuación sobre el sistema.
27
TEORIAS AVANZADAS
Control discreto
Las técnicas presentadas hasta ahora parten del estudio del modelo de un proceso descrito
mediante ecuaciones diferenciales, considerado por tanto, como continuo, y controlado por un
dispositivo de funcionamiento continuo. Esto era correcto cuando se empleaban controladores
neumáticos o electrónicos de tipo analógico, pero no es así cuando son digitales. En este caso, no se
consideran magnitudes continuas, sino que se miden sólo en instantes discretos de tiempo y solamente
se obtienen sus valores en esos instantes.
Entonces, aunque el proceso sea continuo, el sistema de control lo ve representado por una
ecuación en diferencias. Para realizar el estudio de los sistemas de control para procesos en estas
condiciones, se ha desarrollado en una teoría paralela a la de los sistemas de control lineales, teoría en
la que se han ido obteniendo resultados totalmente similares. Se conoce como sistemas discretos o
muestreados de control y esta teoría parte de la definición de una transformación, la transformada Z
(relacionada con la transformada de Laplace para sistemas continuos) en la que se mantienen
prácticamente idénticas (con pequeñas variaciones debidas al muestreo), las propiedades y
características que los sistemas continuos tienen en el campo transformado de Laplace. Existen varios
criterios de estabilidad y técnicas para su estudio, representación de procesos por bloques, función de
transferencia discreta, técnicas de modelado, controladores PID y de otros tipos, con sus técnicas de
ajuste y la generalización de todas las teorías de control, algunas de las cuales se van a comentar. Tiene
además, una extraordinaria aplicación en el filtrado de señal. Se establecen ecuaciones para
controladores, filtros y otros dispositivos de control y se expresan como ecuaciones diferenciales. Estas
ecuaciones se traducen directamente de forma casi literal, en un algoritmo normalmente muy sencillo,
de inmediata ejecución mediante un programa y con muy pocas exigencias de memoria. Por lo tanto
son especialmente adaptables para su ejecución mediante un microprocesador. El control de sistemas
muestreados o discretos suele conocerse también como control digital al estar especialmente
adaptado para su realización mediante computadores digitales. Sin embargo, no se trata exactamente de
un control digital, ya que los sistemas se consideran discretos en el tiempo, pero continuos en los
valores de la señal, mientras que el control digital, o su teoría, debería tratar sistemas discretos en el
tiempo (muestreados) y de señal también discreta, digitalizada. En la implantación del control
muestreado en dispositivos digitales se suele analizar el efecto de la cuantificación o digitalización de
las señales, pero no existe una teoría de control que lo considere en sí misma.
28
Control multivariable
Los procesos considerados, normalmente, trataban de la relación entre una entrada y una salida y.
como dijimos, se emparejaban entradas y salidas cuando había varias o, si el número de entradas no
coincidía con el de salidas, se recurría a estructuras como el control override. Sin embargo, hay muchas
situaciones en las que este control no es satisfactorio porque cada entrada del proceso actúa de forma
significativa sobre varias de las variables de salida, aunque una, que es a la que normalmente va
emparejada, responde más que las otras. Es la situación conocida como interacción entre los diferentes
bucles y obliga a intentar abordar el estudio y control del proceso como conjunto. La teoría de control
que estudia los sistemas de varias entradas y salidas se conoce como control multivariable y tiene un
desarrollo paralelo al de los sistemas monovariables, pudiendo plantearse tanto en forma continua, como
discreta. Este desarrollo se hace considerando que lo que hasta ahora eran magnitudes escalares (entrada
y salida) ahora son vectoriales, englobando en el vector entrada todas las entradas y en el vector salida,
todas las salidas. La relación entre ambas ya no será una función de transferencia, sino una matriz de
funciones de transferencia.
Respecto a esta técnica del desacoplo hay que decir que exige que los procesos sean lineales y,
además, un conocimiento total de su comportamiento, disponiendo de su modelo exacto. No ocurre así
con la mayoría de los procesos químicos, lo que ha hecho que en este campo no sea una técnica
excesivamente utilizada.
Control óptimo
Siempre que se aborda un problema se pretende encontrar la solución óptima y esto ocurre también
constantemente en el control. En general, se entiende por control óptimo al empleo de las técnicas
29
matemáticas de optimización para encontrar la mejor solución entre un conjunto de soluciones posibles
del problema. Se emplean las técnicas de optimización para elegir los parámetros de un controlador,
determinar los parámetros de un modelo de un proceso, realizar una distribución de recursos de control
o repartir el esfuerzo de control entre varios controladores, determinar la estructura de 1a ley de control
a emplear, o los valores de las entradas para alcanzar el estado final deseado en unas determinadas
condiciones (tiempo mínimo, mínimo error, mínimo esfuerzo de control, mínimo consumo de energía,
etc.). Esto último es lo que se conoce como obtención de la trayectoria óptima y es lo que se entiende
por control óptimo en sentido más estricto. Es distinto el empleo de las técnicas de optimización para
una optimización de parámetros que el problema del control óptimo: el de encontrar la estrategia óptima
de control para un determinado sistema según una función de coste dada. La solución dará una función
que optimice el comportamiento del proceso respecto al criterio, función que, si depende de la salida del
proceso, será de realimentación, pero que puede no depender de ella.
2. Se conoce su estado o situación inicial y se determina el estado que se quiere alcanzar, fijándose
o no el instante en que ha de alcanzarse.
3. Se define un índice o criterio de coste, generalmente como la integral de una función de coste a
lo largo del tiempo de duración de la evolución del proceso.
4. Se establecen, si las hubiera, las restricciones oportunas, tanto sobre el estado del proceso, como
sobre el control.
5. El problema del control óptimo es buscar el conjunto de valores que debe tomar la entrada del
proceso (y si se ha dejado libre, también su duración) que minimicen el criterio establecido y
lleven el proceso desde el estado inicial al estado final u objetivo fijado.
Es evidente que la solución obtenida lo es, solamente respecto al criterio elegido y, si éste
cambiara, la solución cambiaría también. La técnica matemática básica para la resolución del control
óptimo se basa en la anulación de la primera derivada con los multiplicadores de Lagrange. Sin embargo,
es muy difícil su aplicación práctica en el control óptimo, habiéndose hecho posible gracias a los
resultados de la programación dinámica y al principio del máximo de Pontryagin. El principio de opti-
málidad de la programación dinámica establece que si una trayectoria se descompone en una sucesión
de tramos, para que dicha trayectoria sea óptima ha de serlo también a partir de cualquier punto de la
misma, independientemente de que lo sean los tramos anteriores. Por su parte el principio del máximo
establece que la condición necesaria para que una trayectoria sea óptima es que el hamiltoniano del
sistema sea máximo para dicha trayectoria y el valor de ese máximo sea, precisamente, cero. Una
aplicación típica es el control bang-gang o control de dos posiciones de conmutación óptima.
30
Identificación
La identificación aparece para completar las técnicas de obtención de modelos. Hemos indicado
que existen dos grupos de técnicas de modelado: las de conocimiento y las de representación. La
identificación es el conjunto de técnicas empleadas para realizar un modelado de representación.
Pueden, sin embargo, emplearse también para apoyar el modelo de conocimiento con la estimación de
parámetros del modelo obtenido, si algunos de éstos no son conocidos o son variables según las
condiciones de trabajo.
Aquí juegan un papel importante la experiencia y el conocimiento previo del proceso (la parte
de modelado de conocimiento) y la finalidad de su empleo.
En muchos casos, es preferible un modelo sencillo, que describa bien la dinámica del proceso en
una zona de trabajo, que un modelo más completo, pero más difícil de manejar.
Hay que tener en cuenta: el equipo de medida y la forma de almacenar los datos, el período de
muestreo, las características de frecuencia de las señales, el número de datos a registrar, el
tratamiento previo de los datos obtenidos y la señal de entrada.
4. Estimación de los parámetros del modelo concreto según la técnica más apropiada.
31
Control adaptativo
El término adaptativo indica que el sistema tiene capacidad de acomodación frente a las
variaciones que puedan producirse. En el control de procesos los controladores están ajustados para
trabajar en unas determinadas condiciones, pero éstas pueden variar, bien porque lo hagan las
condiciones ambientales o las de funcionamiento del proceso, bien porque las características de
funcionamiento del proceso (los parámetros del modelo) cambien de repente o sean continuamente
variables. Entonces no es suficiente un controlador convencional; hace falta uno que él solo se ajuste
para acomodarse a estas variaciones. En la teoría de control hay dos grandes filosofías de control
adaptativo: las de modelo de referencia en las que el criterio de funcionamiento del sistema global
(proceso y control) es un modelo previamente fijado, y las de autosintonizado, en las que el criterio es
una función que hace intervenir la respuesta del proceso.
Como acabamos de indicar, el control adaptativo exige, en primer lugar, disponer de un índice de
comportamiento para medir la bondad del funcionamiento del conjunto proceso-controlador. Este índice
debe ser un buen indicador: selectivo frente a los comportamientos no óptimos y capaz de ofrecer un
máximo global claro, así como ser aplicable en la práctica.
El control adaptativo incluye, de alguna forma, una identificación de los parámetros del proceso,
aunque no ha de hacerse de forma explícita, y está íntimamente relacionada con el índice de
comportamiento. Una etapa posterior del control adaptativo consiste en la toma de decisión respecto al
funcionamiento, que se hace a partir del índice de comportamiento obtenido y su comparación con el
óptimo y la identificación realizada del proceso, determinando cuál ha de ser la variación de los
parámetros del controlador. Finalmente, hay que considerar la modificación de los parámetros del
controlador, a partir de la etapa anterior; suele ir unida a ella. Pero también es posible realizar la
adaptación mediante una modificación de la señal de entrada al proceso. En la Fig. 3-5 se presentan las
dos estructuras de control adaptativo: autosintonizado y con modelo de referencia.
Para terminar, se trata de introducir un problema con el que se enfrenta hoy día la Teoría de control
automático y que tiene aplicación en el control de procesos: el control de sistemas de gran dimensión.
Muchos procesos que se desean controlar de forma global, manejan gran cantidad de variables de entrada
y salida, por lo que es muy difícil estudiar su control y también realizarlo. El primer conjunto de técnicas
se orienta a la simplificación y reducción del orden de los modelos, y permiten obtener otros de
dimensiones mucho más reducidas, pero con un comportamiento muy similar, porque se han conservado
sólo aquellos modos de funcionamiento que más influyen sobre el comportamiento global mediante el
apropiado criterio de selección. El segundo conjunto de técnicas se
32
Fig. 3.5.- Dos estructuras de control adaptativo: a) autosintonizado y b) con modelo de referencia
orienta al control de estos procesos. De todas ellas destacaremos solamente dos: el control jerarquizado,
que descompone el sistema de control en niveles entre los que se reparten los objetivos y la elaboración
de los controles de tipo local y global, y el control distribuido que reparte las tareas de control de forma
horizontal entre las distintas partes del proceso global.
BIBLIOGRAFIA
1. Dormido, S, y Prada de, C.: "Fundamentos y técnicas básicas en el control de procesospor ordenador".
Notas del IV Curso "Automática en la Industria", Peñíscola, mayo 1984, ed. AEIA.
2. Smith, C.L., "Digital computer pro cess control", Intex Educational Publishers, 1972.
5. Takahashi, Y., Rabins, M.J., Auslander, D.M., "Control and dynamic systems", Addjson-Wesley
Publis. Co., 1970.
33
Capítulo IV
Control de procesos mediante computador
INTRODUCCION
Desde que se dispone de computadores se intenta utilizarlos para el control en general y,
especialmente, para el de procesos. Así, hoy día, cualquier fábrica está equipada con un sistema de
control de procesos basado en el computador, cuya importancia es extraordinaria, ya que, aunque supone
menos del 5 % de la inversión total, es crucial para la utilización y el máximo aprovechamiento del resto
de los componentes. Además, su concepción influye no sólo sobre el diseño de la fábrica, sino también
sobre la forma de actuar de los responsables de su funcionamiento.
El primer computador utilizado para control, fijaba las referencias de un piloto automático y se
puso en marcha en 1954. Una empresa que había competido sin éxito en este producto, modificó su
computador e intentó penetrar en el mercado del control de procesos con computador. De esta forma,
los computadores de control de procesos fueron, en un principio, el resultado de un intento de los
fabricantes de computadores de ampliar su mercado o de vender equipos no aceptados por las Fuerzas
Armadas. En 1958 se instaló el primer computador como supervisor de fábrica, y en marzo de 1959 se
empleó un computador para control en bucle cerrado, aunque a través de controladores analógicos. En
1 962 se montaron los primeros computadores para el control digital directo de instalaciones de proceso,
uno en el Reino Unido y otro en Estados Unidos. Estos éxitos impulsaron el desarrollo de los primeros
minicomputadores. Sus características de entonces "capacidad y tipo de memoria, programación en
lenguaje máquina, falta de experiencia y baja fiabilidad" hicieron tender a la utilización de grandes
computadores para realizar todas las funciones. Por ello, dados su complejidad y elevado coste,
disminuyó el número de instalaciones, utilizándose sólo minicomputadores para el control de aspectos
parciales de procesos. La aparición del microprocesador en 1971 cambió radicalmente el panorama con
una coincidencia de esfuerzos para el empleo para el control digital, tanto desde cada bucle de control
"ascendente" por integraciones sucesivas, como en sentido inverso desde la gestión y organización
"descendente".
TIPOS DE CONTROL
Los niveles en que se descompone un control con computador, los tipos de control que pueden
realizarse y las funciones encomendadas a un computador, son tres aspectos profundamente
interrelacionados. Como en la introducción ya hemos presentado la evolución del control con
computador, que, necesariamente, conduce a los diferentes tipos, vamos a comenzar por describirlos en
lo posible.
Computador de vigilancia
de datos, sino que incluye su manipulación, elaboración de informes de su evolución después de tratarlos
y su comparación con los umbrales fijados, generando las correspondientes señales de alarma en caso
de que se sobrepasen éstos. No interviene en el bucle del que es independiente.
Este tipo de supervisión supone ya una intervención en el bucle de control. A partir de las medidas
que realiza de las variables y de las órdenes superiores, elabora las consignas de los controladores, que
pueden seguir siendo de tipo analógico.
En este tipo de control el computador se hace cargo directamente de la adquisición de los datos,
elaboración de las órdenes de control y de su envío a los actuadores. En este caso, el computador es el
corazón del bucle de control, ejecutando los algoritmos y estrategias establecidos. Las estrategias ya no
están restringidas al PID, que llevaba a cabo el controlador analógico, sino que se puede disponer de
otros muchos algoritmos e incluir toma de decisiones lógicas y correcciones complejas. Hay que
destacar dos tipos de componentes que aparecen en el bucle de control por exigencia de la incorporación
del computador dentro del lazo: los convertidores y los multiplexores. Los primeros transforman las
señales analógicas de los sensores en digitales para su manejo por el computador y las digitales de éste,
en analógicas para el mando de motores y válvulas. Los multiplexores, de entrada y de salida, permiten
al computador repartir su potencia y su tiempo entre varios bucles de control, conectando
secuencialmente el computador a los diferentes bucles a su cargo. En la Fig. 4-1 puede verse esta
estructura aplicada a un lazo de control.
CONFIGURACIONES
Control centralizado
La Fig. 4.1 representa, en esquema, lo que puede ser un control centralizado si el computador, con
todos los componentes auxiliares (convertidores, multiplexores, consola, indicadores), se encuentran
situados no junto al proceso, sino en la sala central de control. En ella se concentra toda la
instrumentación de control: controladores analógicos y/o digitales y computador supervisor, estando
este núcleo de control comunicado individualmente con cada sensor y actuador situados en el campo.
35
l) Porque se quiere realizar un control conjunto de toda la factoría, puesto que cada lazo del
proceso depende de los demás y es preciso que el operador tenga una visión global y la
posibilidad de actuar sobre cada uno de ellos teniendo presente los otros.
Este tipo de instalaciones, aunque satisfactorias porque resuelven el control de forma correcta,
presentan serios inconvenientes, siendo el más importante el complejo y gigantesco sistema de
comunicaciones, que lleva todas las señales de la fábrica a la sala de control y devuelve a aquélla todas
las señales de control. Es un sistema muy caro que exige mucha atención y experiencia para su diseño e
instalación, tanto para .disminuir su coste, como para evitar los problemas de ruidos eléctricos o errores
en la transmisión que pueden provocar el fallo total de la fábrica.
La solución pasa por la descentralización que se acomete de forma progresiva y que culmina con
36
Control distribuido
Consiste en repartir los recursos de cálculo y control por toda la factoría, aproximándolos todo lo
posible a los lugares en que se necesitan. Sin embargo, estos recursos no deben ser independientes y
deben pasar información al lugar de mando general del proceso que estará encargado, además, del
almacenamiento general de la información, de la supervisión y coordinación general y de la
comunicación con los centros de control de otros procesos u otras secciones de la factoría. La red de
comunicación entre los distintos recursos locales y la sala central de control es un elemento fundamental
en este tipo de configuración. Las ventajas de una instalación de este tipo son innumerables: desde la ya
indicada proximidad del control a los procesos, con lo que supone de aumento de la flexibilidad, como
el mismo aumento de la potencia del control, el incremento de la modularidad, la reducción de la
Complejidad del conjunto facilitando el diseño, la instalación, la puesta en marcha y el funcionamiento
normal, la protección de las comunicaciones y la posibilidad de adoptar medidas de redundancia y
actuaciones en caso de fallo y su reparación. Dedicaremos un apartado a esta configuración.
En una sala de control de un Sistema Distribuido de Control. Solamente hay esquemas y algunos
indicadores del proceso, y toda la información sobre éste aparece sobre las pantallas. Los teclados
sirven para pedir información o dar órdenes al proceso.
El control directo o supervisor de un proceso no constituye al final más que una parte del control
por computador que puede implantarse en una factoría. El resultado es un sistema de control global de
todas las actividades de una empresa, mediante una estructura de diversos tipos de computadores,
controladores de regulación, controladores lógicos programables, minicomputadores y grandes
computadores, e, incluso, computadores personales y estaciones de trabajo inteligentes, conectados
37
todos ellos por distintos tipos de comunicaciones y organizados por niveles con una estructura
jerarquizada. En la Fig. 4-2 se presenta un esquema-cuadro de esta estructura con sus niveles y
funciones.
El nivel más bajo, de Control local, tiene como objetivo el control por realimentación. El
computador que lo realiza tiene a su cargo la adquisición de datos de los sensores y su corrección y
acondicionamiento, la comparación con los límites y generación de alarmas que se envían al nivel
superior, y, sobre todo, la determinación de la señal a enviar a los actuadores de acuerdo con los
38
resultados del algoritmo de control seleccionado por el nivel superior y de acuerdo con la consigna
fijada por éste.éste. Este computador (mini o micro) puede controlar, a la vez, varios bucles, realizar
controles en cascada o de otros tipos y suele tener encomendada la actuación en arranque y parada.
El nivel de supervisión comprueba también los valores de las variables y sus tendencias, generando
las alarmas oportunas si sobrepasan los valores fijados, y tomando las acciones correctoras necesarias
para eliminar las tendencias anómalas. Hace el papel, además, de coordinación de varios controles
directos de nivel inferior.
El tercer nivel, de coordinación de área, tiene como finalidad el control de la producción de toda
el area mediante un balance de materiales y energía que se encarga de optimizar (por lo que se le conoce
también por ese nombre). Según esto, se establecen las condiciones de operación de cada uno de los
procesos del área, que envía al correspondiente control Supervisor.
El cuarto nivel, de gestión de la factoría integra todas las áreas y planifica la producción del
conjunto, con la secuencia apropiada para las distintas secciones, organizando así la colaboración
necesaria entre ellas.
El nivel superior, finalmente, parte de una información económica: pedidos, recursos, costes y
mercado, estableciendo los planes de producción Y la política a seguir.
Un sistema de control de procesos integral debe realizar los tres tipos de acciones siguientes sobre
el sistema (el conjunto: proceso-sistema de control) de forma automática.la):
1ª) Funcionamiento continuo de la factoría, manteniendo las condiciones fijadas, supervisión y manejo
de las condiciones de emergencia, detectando la aparición de éstas e, incluso, previéndolas y
actuando de forma apropiada;
3ª) Cambio de las condiciones operacionales, en función del mercado, de las características de los
productos y del criterio económico correspondiente.
De estas tres acciones, las dos primeras se ejecutan entre los dos niveles inferiores de todo sistema
de control de procesos y son el objetivo de los sistemas distribuidos, quedando la tercera, que
corresponde á las tareas de los niveles superiores, para ser realizada por computadores potentes mediante
39
Las funciones que realiza un sistema de control de procesos en los dos niveles inferiores son:
Adquisición de datos
Las señales suministradas por los sensores rara vez pueden ser directamente utilizadas por el
sistema para el control siendo necesario someterlas a diversas transformaciones. En primer lugar, las
señales analógicas han de muestrearse y digitalizarse de manera periódica y las digitales pueden atacar
el sistema de interrupciones o ser, también, muestreadas. Posteriormente, deben someterse a un
pretratamiento que comprende la adecuación de unidades, filtrado, estimación de gradientes y utilizar
los valores obtenidos para estimar otros que no pueden medirse directamente. Pueden incluirse aquí la
compresión de datos con vistas a su almacenamiento y la agrupación de los valores y parámetros
medidos en el mismo instante, con el fin de tener reunidos todos los que definen el estado de un proceso
en cada momento. El almacenamiento de los datos también está dentro de esta función.
Además, el operador debe poder realizar una serie de acciones sobre el sistema, que se pueden
agrupar en las siguientes:
3. Modificación de los algoritmos (tanto de adquisición como de control) adición otros nuevos y
selección del que se quiere utilizar en cada momento.
Supervisión
Ya que el sistema está constituido por un conjunto de procesadores organizados con una estructura
jerarquizada, las funciones más rápidas (y más críticas en el tiempo) se encomiendan a los niveles más
bajos, mientras que las más complejas (pero menos críticas en el tiempo), quedan en los niveles
superiores. Como hemos indicado, de estas últimas se encarga un computador potente que se conecta al
sistema distribuido. La estructura a estos niveles se concibe y programa de forma específica para cada
caso empleando lenguajes de alto nivel. Algunas veces, este computador de control supervisor se
encarga también de la comunicación con el operador.
Como hemos presentado antes, un control distribuido supone una forma o filosofía de abordar la
realización de estas funciones. Puesto que manejan instalaciones de coste muy elevado, deben ofrecer
gran fiabilidad y estar preparados para seguir trabajando aún en caso de fallo. Además tanto los
diferentes recursos como las comunicaciones, deben ser capaces de admitir la máxima carga de trabajo
sin degradación en su funcionamiento. Por eso, se ha evolucionado hacia un conjunto de productos tipo
normalizados, que se conocen como módulos y que pueden interconectarse de muy diversas formas para
ajustarse a las necesidades de los procesos de cualquier tamaño. Cada módulo se presenta en una tarjeta
de circuito impreso y para comunicarse entre ellos utilizan protocolos específicos o buses comerciales,
mientras que, entre conjuntos de módulos empleados en procesos distintos, se emplean protocolos
comerciales normalizados.
Las funciones que ha de realizar un sistema de control están asociadas con uno o varios módulos.
Los módulos que realizan una función (o varias, si éstas van unidas) como es el caso de la adquisición
de datos y control de variables, se agrupan en unidades físicas denominadas nodos. Estos nodos están
unidos entre sí y con el computador supervisor mediante un sistema de comunicaciones basado
normalmente en un cable coaxial capaz de transmitir información a 2 MBPS (Megabits/s) a una distancia
hasta de 3 Km, tipo red local.
En el futuro, este cable será sustituido por una fibra óptica. Este sistema de comunicación se
conoce como Data highway. En la Fig. 4.3.- se presenta un esquema de un sistema de control de procesos
distribuido con tres nodos con diferentes funciones, unidos por líneas de comunicación (Data highway)
normales y de reserva (1 A y 2A), cada una con su paralela de emergencia (lB y 2B).
41
En la Fig. 4.4.- se presenta la estructura típica de un nodo de adquisición de datos y control. Vemos
que está formado por un conjunto de módulos que es completamente reconfigurable según las
necesidades de cada punto de la instalación, comunicándose los módulos entre si por un bus local,
mientras que el nodo se comunica con el resto de los no-dos por la línea de comunicaciones redundante,
42
a la que accede por módulos de comunicación. La Fig. 4.5 muestra la estructura de un módulo de
entradas analógicas.
Además de los convertidores AID y la interfaz para el bus local del nodo, incluye un
microprocesador y una memoria RAM de datos donde se almacenan las medidas, que, cuando son
pedidas por el controlador, se le envían a través del bus local, generalmente de tipo paralelo, para
permitir una rápida transmisión.
La clave de los nodos del sistema de control es su flexibilidad para adaptarse a cada aplicación, su
manejo de las redundancias y la capacidad para recuperación de errores, reconfigurándose en caso de
fallo. Esta redundancia, que se da en la comunicación, puede extenderse a cualquiera de los módulos
cuando sea necesario, consiguiendo una fiabilidad máxima. Por otra parte, al incrementarse la capacidad
de las tarjetas de E/S con la inclusión de microprocesadores y memoria de datos, puede reducirse el
coste del cableado a los sensores, sustituyendo los cables dedicados para cada sensor por un elemento
emisor/receptor trabajando con estaciones remotas de medida con su propio microprocesador,
conectadas mediante una línea digital serie, que, además de reducir el coste, reduce también la
posibilidad de perturbaciones exteriores sobre las señales. La comunicación del nodo con la línea de
comunicación del sistema se hace a través de un módulo de comunicación, redundante, encargado de
todo el proceso de envío y recepción de mensajes, y que lleva a cabo la introducción de formatos,
elaboración de protocolos y respuesta a ellos, detección de errores de transmisión, etcétera, todo según
el modelo de comunicación adoptado.
Otros elementos de un sistema distribuido, además de los nodos con toda su flexibilidad y otros
módulos que pueden integrarlos (y aparte de la línea de comunicación de la que nos ocuparemos luego),
son la estación de operador y el computador central, con sus funciones supervisoras. De ambos hemos
hablado ya. Digamos, nada más, respecto a la estación del operador, que es un módulo especial
integrable con otros para formar un nodo. Este módulo consiste en una o varias pantallas (normalmente
en color), teclados especializados de tipo funcional, uno o varios procesadores y una memoria local
secundaria. En ella se almacena una copia, actualizada continuamente, de la base de datos del proceso
que se puede encontrar distribuida en los nodos, para permitir su presentación, modificación, elaboración
de datos estadísticos y su empleó en la etapa de arranque del proceso. Esta estructura del puesto del
operador permite al sistema operar sin necesidad de un computador supervisor.
En un control distribuido el éxito del control del sistema como tal, reside en su sistema de
comunicaciones. Debe ser capaz de soportar configuraciones muy diferentes, una base de datos
distribuida entre los nodos y garantizar las prestaciones adecuadas, incluso en los casos de máxima
sobrecarga. Aunque la garantía absoluta no existe, se han desarrollado organizaciones del sistema que
permiten trabajar en las peores condiciones. Por las variedades existentes en los nodos, el sistema de
comunicación debe poseer un control distribuido de sí mismo, de forma que no exista un control único
y fijo de la comunicación y los mensajes no deben tener formato fijo. La estructura en estos casos de
envío de mensaje es:
[cabecera (fuente, destino, control), cuerpo del mensale (longitud variable), comprobación]
protocolo. De los 7 niveles de protocolo existentes en la norma ISO, solamente se han solido aplicar las
normas existentes para los dos inferiores : el físico y el de conexión, quedando los otros a cargo de la
Programación específica y reduciéndose así el tiempo de comunicación.
Mientras que en la comunicación punto a punto nadie puede escuchar un mensaje que no vaya
dirigido a él, cuando se hace por canales de emisión, hay que indicar en el mensaje quién tiene acceso a
él; esto supone que cualquier protocolo debe incluir métodos de acceso al canal de emisión que
garanticen un emisor único y, en caso contrario, una acción de recuperación que coordine el uso de la
capacidad de transmisión de todos los nodos en cada instante y que depende de la arquitectura del canal.
45
Entre los sistemas comerciales, los hay basados en bus y en anillo. El módulo de interfaz al canal
de cada nodo tiene su buffer de mensajes de paso y otro para los propios en cola de espera, para ser
enviados. Un mensaje que entra en el anillo desde el nodo originador, pasa al siguiente y va de nodo a
nodo hasta que llega al destinatario, que lo devuelve siguiendo el anillo con un código de aceptación. El
mensaje sigue hasta que vuelve a llegar al originador, que, cuando lo recibe con la aceptación, lo
destruye, así como la copia de seguridad que guardaba. Se considera que el retardo de un mensaje a
través del anillo, cuando hay sobrecarga, no debe pasar de los 15 ms., y que, por su estructura, pueden
procesarse 700 mensajes/s de una longitud de 90 bytes con un canal a 500 kHz. Las técnicas de acceso
más utilizadas son las de acceso controlado. Para eso se emplea el paso de señal que sólo permite un
nodo activo tanto en el bus (token bus) como en el anillo (token ring). En el bus se envía, cada vez que
toca, un mensaje con un destino y se pasa la señal a otro nodo para que proceda de la misma forma. En
el anillo la interfaz está activa sobre los mensajes. Si es de paso de señal, puede estar a la escucha o en
emisión, desviando entonces la información que llega; si es de inserción de registros, pueden circular
varios mensajes a la vez, gracias a la introducción de un retardo entre mensajes. También se han
desarrollado técnicas de reconfiguración del sistema de comunicaciones para los casos de fallos en los
canales de comunicación.
Finalmente, una solución poco empleada por su falta de fiabilidad e la existencia de un controlador
central de comunicaciones que actúa como árbitro de acceso. Una variante es realizar agrupaciones de
nodos de fácil comunicación entre sí, comunicándose con otros grupos a través de canales globales a los
que se accede por módulos especiales tipo puerta de conexión. Se trata de un establecimiento de
jerarquías entre nodos apoyados en las comunicaciones.
BIBLIOGRAFIA
1. Dormido, S., Prada de, C.: "Fundamentos y técnicas básicas en el control de procesos por
ordenador", Notas del IV Curso "Automática en la Industria", Peñiscola, Mayo 1984, ed. AEIA.
2. Luque, E, Moreno, L.: "Microprocesadores en el control de procesos". Notas del IV Curso
"Automática en la Industria", Peníscola, Mayo, 1984, ed. AEIA.
3. Basáñez, L.: "Control de procesos por computador", Regulación y Mando XVIII,134. Diciembre
1983, pág. 93-100.
Capítulo V
Soporte lógico para el control de procesos
46
INTRODUCCION
Es difícil exponer correctamente la problemática del soporte lógico o software para el control de
procesos por tratarse de un campo no muy bien definido, y por las condiciones de continua
transformación a que está sometido, en los equipos. El software y su ingeniería son disciplinas en
vertiginosa evolución creando continuamente nuevas herramientas que facilitan el desarrollo de
programas y constituyen potentes entornos de programación, que aumentan tremendamente la
productividad del usuario (ingeniero, analista, programador). Los sistemas de control de procesos han
experimentado en los últimos años un cambio radical en su filosofía, eliminando algunos problemas
(especialmente en lo relativo al funcionamiento, potencia y seguridad) pero creando otros nuevos, de
los que el diseño de los programas y la comunicación entre equipos sor los más importantes.
Añádase a esto el desarrollo de cada una de las técnicas y tecnologías que intervienen en el control
de procesos, sobre los que la informática está ejerciendo un extraordinario influjo y que, muchas veces,
se utilizan de forma aislada en el control, además de hacerlo integradas. Esto da una idea de lo vasta y
compleja que resulta esta problemática.
Un sistema de control de procesos es, además de unos equipos, una serie de programas que le
hacen funcionar correctamente. Todos estos programas, así como los que permiten su desarrollo, pueden
entrar dentro de la consideración de software de control de procesos,
Desde el punto de vista de su función respecto a los equipos, podríamos clasificarlos en:
A) Normalizado, incluido en los equipos. Comprende todos aquellos programas que hacen funcionar los
equipos y que son independientes de la aplicación: el sistema operativo o los programas de algoritmos
de control o de tratamiento de señales.
B) Particular de la aplicación, que configura el sistema global en cada caso y permite el funcionamiento
correcto del conjunto proceso-control. Se concreta mediante los lenguajes de programación.
Ninguno de los tres tipos (ni de los diferentes componentes que los integran) puede sustraerse a
las características que debe tener un software que trabaja en tiempo real. Quizás sea el software de
comunicaciones (o mejor, los protocolos) el más independiente de lo que es propiamente control de
procesos, porque la elaboración de las comunicaciones depende también de la estructura física instalada
47
Tampoco conviene olvidar de cara al soporte lógico. las funciones de un sistema de control:
Esta interfaz no trata sólo de la presentación de resultados de cualquier tipo o con cualquier forma,
sino, también, de ejecución de órdenes del operador, modificando características del sistema, órdenes
dadas mediante un lenguaje gráfico o por teclado especial con teclas funcionales.
No siempre se incorpora pero sirve para, mediante una visión global y los cálculos oportunos,
determinar las condiciones de funcionamiento más interesantes y las consignas y tiempos de
funcionamiento que las proporcionan.
Es necesaria para futuras expansiones cooperaciones efectivas con otros procesos o participación
en la jerarquía de control.
A la vez que controla la instalación, el sistema debe poder emplearse para ir desarrollando nuevas
48
aplicaciones y estrategias de control, disponiendo de herramientas para adaptar los programas incluidos
en los equipos a los requisitos de cada situación.
Por el conjunto de funciones que acabamos de ver, se puede apreciar claramente que existen unas
extraordinarias diferencias entre la informática de proceso de datos y la informática industrial.
Podemos considerar que la informática y el soporte lógico de control de procesos tienen las
siguientes características:
a) Conectados directamente al proceso, los datos entran y salen directamente en tiempo real.
b) El soporte lógico está descompuesto en pequeños bloques llamados tareas que se ejecutan
periódicamente o a petición de sucesos, tanto externos como internos.
d) Existe un marcador de tiempo absoluto, un reloj de tiempo externo utilizable para fijar el
comienzo de las tareas.
e) Las tareas pueden ser cooperativas y pueden simultanearse diversas tareas habiendo entre
ellas un continuo intercambio de datos en tiempo real.
f) Existe una jerarquía de tareas de forma que, cuando entran en competencia para la utilización
de un recurso, es la más importante la que accede a él.
g) Tanto el equipo físico como las tareas, deben tener una gran seguridad de funcionamiento.
Existen tareas que intervienen cuando se detectan fallos en el equipo físico o en otras tareas,
para que el funcionamiento de la instalación no se deteriore.
En la Fig.5.1.- puede verse un cuadro comparativo de las características propias del software de
proceso de datos y del de control de procesos.
El sistema lógico de control de procesos se caracteriza por ser claramente de tiempo real. Ello
49
implica unas exigencias adicionales a las de todo paquete de software que, además, es preciso cumplir
escrupulosamente, tanto por la complejidad de los problemas, como por la del componente físico en el
que ha de funcionar, como también por las estrechas restricciones a que está sometido. De todas formas,
la exigencia del cumplimiento de determinados requisitos no es igual en todos los casos: podrá
suavizarse dependiendo del problema y del equipo.
2. Legibilidad: Debido a las continuas modificaciones que puede sufrir y para que éstas se puedan hacer
rápidamente y de forma correcta sin producir errores, el soporte lógico debe ser legible. Esto se consigue,
además de por la modularidad, por una programación estructurada y una adecuada documentación,
dentro y fuera del programa.
PROCESOS
SE EMPLEAN COMPUTADORES MUY GRANDES SE EMPLEAN COMPUTADORES RELATIVAMENTE
(AUNQUE HAY TENDENCIA A PEQUEÑOS, (AUNQUE SE TIENDE A EMPLEAR
CAMBIAR) OTROS MAYORES)
SE ACUMULAN LOS DATOS EN FICHEROS TODOS LOS CAMBIOS EN LOS DATOS SE PROCESAN
HASTA QUE SEA POSIBLE HACER CORRER TAN PRONTO COMO SE PUEDE
EL PROGRAMA ININTERRUMPIDAMENTE
Fig. 5.1.- Análisis comparativo de las características más representativas propias del
software de "proceso de datos" y del de "control de procesos".
50
3. Portabilidad: Puesto que el equipo físico se encuentra en continua evolución y las aplicaciones
suelen tender al aumento de su tamaño, porque se automatizan nuevos procesos y se integra su
control con el ya existente, el soporte lógico debe ser lo más transportable posible, de forma que
necesite las mínimas modificaciones posibles. Esto se consigue con una arquitectura adecuada del
soporte lógico y con el empleo de lenguajes y sistemas ampliamente aceptados y normalizados.
La característica específica del soporte lógico de control de procesos de ser de tiempo real, se debe
a:
- que existen tareas concurrentes habiendo entre ellas relaciones de cooperación y/o competencia
y, a
- que en los programas y en su ejecución interviene el tiempo absoluto.
- Multiprogramación. El conjunto de programas está formado por tareas que, en ciertos casos, necesitan
ejecutarse simultáneamente. Hay un aspecto dinámico en la progresión de la ejecución del soporte
lógico.
- Asignación de prioridades: Como estas tareas pueden intentar acceder a la vez a determinados
recursos, debe asignarse a cada una de ellas un índice de prioridad.
- Gestión de interrupciones: Cuando una tarea de mayor prioridad quiera acceder a un recurso ocupado
por otra de prioridad inferior debe existir la forma de interrumpir la ejecución de esta última, salvando
toda la información necesaria para que, cuando quede de nuevo libre el recurso, vuelva a acceder a él y
continúe normalmente su ejecución.
- Reloj de tiempo absoluto: La generación de tareas debe poder vincularse a tiempos absolutos, que
activen las tareas en los momentos señalados.
A estos requisitos hay que añadir aquéllos otros que no tengan que trabajar en tiempo real, pero
que vienen exigidos por el tipo de actividad a realizar en el control de procesos; como son:
- Fácil comunicación entre módulos. Al tener una organización modular, las tareas comparten datos a
la vez que los modifican e intercambian. Es preciso que esta comunicación, que se está realizando
continuamente, se lleve a cabo de forma sencilla y transparente mediante procedimientos que garanticen
la coherencia de los datos, y, también, en su vertiente temporal, con la puesta en marcha o bloqueo de
otras, sin pérdida de información y con una sincronización correcta.
- Flexibilidad en las operaciones de entrada/salida. Es una tarea fundamental del control de procesos
51
pero que agrupa operaciones muy diversas tanto en cuanto a tipo de datos, como a las operaciones en sí
mismas: manejo de interfaces, ficheros, comunicación entre procesadores o comunicación con el
operador. Por su importancia, los procesadores centrales deberán descargar el peso de muchas de estas
operaciones en procesadores secundarios, esclavos o dedicados.
CLASES DE PROGRAMAS
Hemos hecho una primera referencia a los diferentes tipos de programas en que se puede agrupar
el soporte lógico de control de procesos. Como indicamos entonces, hay que considerar incluidos todos
aquellos programas que pueden servir de ayuda para el estudio y desarrollo del proceso y su control.
Cuando se habla de control de procesos se piensa siempre en grandes fábricas de la industria química,
en las que son fundamentales las instalaciones de control, olvidando el control de procesos e
instalaciones pequeñas de una complejidad mucho menor, pero con un auge especial al disponer de los
microcomputadores y computadores personales adaptados a ese tipo de trabajo y con un coste muy
asequible. Y lo mismo que ha ocurrido en el equipo físico, ha pasado en el lógico, donde, para estos
casos más sencillos, han proliferado los paquetes de programas potentes pero sin requisitos tan fuertes
y, por tanto, notablemente más simples. Por otra parte, también han de tenerse en cuenta otros aspectos
diferentes del nuevo funcionamiento del proceso y del equipo: en el desarrollo del sistema completo,
todas las herramientas necesarias, lo mismo que en lo referente al diseño previo al desarrollo, todo el
soporte lógico de apoyo al diseño e, incluso, algunos paquetes de programas de aplicación. Cubriendo
todas estas facetas, vamos a presentar las diferentes clases de programas que aparecen en el control de
procesos.
52
Antes de exponer estas funciones veamos las nociones de los programas de una aplicación. En una
aplicación concreta el control se lleva a cabo mediante un conjunto de programas y unos datos. El
conjunto de programas está descompuesto en módulos denominados tareas, rutinas y subrutinas. Las
tareas son programas, de tamaño relativamente grande, activados por el sistema operativo de acuerdo
con las condiciones de la tarea y del proceso. Las rutinas son programas pequeños cuya misión es
responder rápidamente a los sucesos que puedan aparecer y, por eso, son activados por el sistema
operativo sin depender de otras condiciones.
Finalmente, las subrutinas son activadas por las tareas y pueden ser de tipo dedicado (para una
tarea única), común (para varias tareas, pero que no pueden utilizarla simultáneamente) o reentrante. A
cada tarea se le asigna una prioridad dentro del conjunto de acciones a llevar a cabo, y ésta determina la
preferencia que tiene frente a las demás cuando se solicita su ejecución. Respecto a los datos, pueden
ser particulares de una tarea, o comunes a varias, con posible acceso a ellos sólo para leerlos, escribirlos
o modificarlos. De todas formas, en cada momento sólo puede haber una tarea accediendo a los datos
comunes.
- En ejecución
- Preparada, o en espera de ejecución, pendiente de acceso a la unidad central.
- Bloqueada, a la espera de que se produzca un suceso, transcurra un tiempo o se ejecute otra tarea
con la que está sincronizada.
- Inactiva: cuando no se solicita su ejecución.
Como es obvio, una tarea sólo puede pasar a inactiva desde el estado en ejecución y sólo puede
pasar a ejecutarse desde el estado de preparada.
Las funciones fundamentales de un sistema operativo de tiempo real son las siguientes:
memoria central, dicho código se divide en dos partes. En una reside el sistema operativo, algunas rutinas
especiales y las áreas de datos comunes. La otra parte se emplea como área de carga de las rutinas no
residentes, que son llamadas para ejecutarse en cada momento. Aquí hay varias alternativas. Puede
optarse porque sólo haya una tarea cargada, por partir la memoria en segmentos de tamaño fijo y que en
cada uno haya una tarea, o por asignar de forma dinámica en tiempo real la totalidad de la memoria a
las diferentes tareas en función de sus necesidades. Cuando se activa una tarea antes de cargarla se la
sitúa en la cola de acceso a la memoria que está ordenada por prioridades.
"Asignación de la unidad central": Las tareas ya residentes en memoria compiten por el uso del
procesador central o unidad central. El sistema operativo las coloca en una cola de acceso a la unidad
central por orden de prioridad y va dándoles servicio según la prioridad de las que se estén ejecutando
y la filosofía adoptada para la interrupción de tareas Siempre que el sistema operativo tiene que
intervenir, accede a la unidad central interrumpiendo la tarea que se estaba ejecutando, y después que
de, según el sistema, devolver el control a:
Si en la cola hay varias de igual prioridad, unos sistemas operativos dan servicio por orden de
llegada, mientras que otros lo hacen en tiempo compartido.
a) Activación por tiempo crítico: A determinadas tareas más exigentes, si no se han comenzado a
ejecutar en un tiempo establecido aumenta su prioridad.
b) Previsión de sobre carga: Si una tarea sobrepasa un determinado tiempo de ejecución (porque no
funcionaba bien, o porque es demasiado larga, y por ello congestiona el sistema) se la
interrumpe y se da paso a otra, pasando aquella a la cola de espera.
Siempre que se interrumpe una tarea, por tener que dar acceso el sistema operativo a otra de más
prioridad o porque se bloquee, se guardan los contenidos de los registros para asegurar que la tarea se
volverá a tomar en las mismas condiciones que antes, sin perder información.
acceso a cada periférico. Pueden darse servicio simplemente por orden de llegada, o según la prioridad
de la propia tarea.
85
3) Manejo de sucesos externos
Cuando tienen lugar las interrupciones, el sistema operativo de tiempo real se hace con el control,
identifica la interrupción y ejecuta una rutina de tratamiento del suceso sin afectar a las tareas en
ejecución, que han de pasar a la cola de memoria y a la de la unidad central. Los sucesos exteriores se
dan a conocer al sistema mediante dispositivos físicos llamados "líneas de interrupción", "señales de
sucesos", o "palabras de estado de interrupción". Las rutinas de tratamiento de interrupciones están
asociadas internamente a los sucesos y suelen tener la prioridad máxima.
4) Organización de tiempos
Cuando una tarea tiene que ejecutarse en instantes especificados, o después de transcurrido un
determinado tiempo, o a intervalos dados, se la sitúa en una cola apropiada, en la que periódicamente se
va actualizando el tiempo. Al cumplirse el tiempo de una tarea, se activa una interrupción interna,
colocando a dicha tarea en la cola de acceso a memoria o a la unidad central para ser tratada.
Son órdenes que sirven para comunicar el sistema operativo con las tareas y viceversa. Su misión
es activar, sincronizar, o suspender una tarea, asignar o cambiar la prioridad, pedir el acceso a un
periférico y obtener información del estado de las tareas o del tiempo. Todas las llamadas al sistema
operativo y todas sus órdenes se ejecutan mediante rutinas especiales de gran prioridad.
Los sistemas operativos son característicos de cada máquina, de cada computador, han sido
diseñados para él por el fabricante y son propiedad de éste. Conviene observar, de todas formas, que
esta extraordinaria complejidad en el sistema operativo se debe a la estructura centralizada del sistema
de control alrededor del computador. En los sistemas distribuidos, gracias también al bajo precio de los
procesadores y las memorias y a la potencia de los primeros, cada tarea o pequeño grupo de tareas tiene
un procesador dedicado y situado junto al lugar donde se necesita la información.
Se eliminan así los problemas de las colas de espera y del tratamiento de las interrupciones,
quedando mucho más sencillas y transfiriéndose la complejidad a la comunicación y coordinación entre
los equipos diferentes y a la gestión y protección de los datos existentes en la base de datos común, ya
esté ésta en forma centralizada o distribuida.
55
Los lenguajes de programación para control de procesos tienen como misión, definido el problema
que el sistema quiere resolver: el control de un proceso, establecer la forma en que el equipo tiene que
actuar para realizar su función indicando todas las actividades, cálculos y otras operaciones a efectuar y
la forma de realizarlas, con todas las circunstancias que puedan darse: interdependencia, tratamiento de
señales externas, informes, etc.
Lo mismo que ha ocurrido con los sistemas operativos ha sucedido con los lenguajes, en los que
se produce una evolución desde los lenguajes clásicos de programación (Fortran, Pascal), primero hacia
los lenguajes multitarea y las extensiones para trabajo en tiempo real (aunque todavía centralizado) y,
finalmente, hacia los lenguajes de tiempo real para procesos distribuidos, encontrándose estos últimos
en una fase muy incipiente. Existen, además, lenguajes específicos orientados a problemas concretos.
Los lenguajes clásicos son de tipo secuencial en los que las acciones tienen un estricto orden en el tiempo
sin influir en el comportamiento del programa, la duración de su ejecución. Los resultados dependen,
únicamente, de los efectos de cada acción y de su orden. Características de los lenguajes avanzados son,
por una parte, el carácter estructurado del control y la abstracción funcional (procedimientos), y por otra,
la posibilidad de definir tipos de datos, simples o estructurados. Son lenguajes de esta clase: BASIC,
FORTRAN, PASCAL y COBOL. Funcionan en cualquier máquina con el compilador/intérprete
adecuado y no requieren un sistema operativo especial.
El siguiente nivel es el de los lenguajes multitarea en los que coexisten diferentes programas con
acciones no disjuntas en el tiempo. Esto conlleva unas reacciones de cooperación o de competencia entre
los programas o tareas, que deben comunicarse Y/O sincronizarse, enviándose mensajes de estados o
datos mediante variables compartidas: buzones, semáforos o citas. Son lenguajes de este tipo el
MODULA-2 y el PASCAL CONCURRENTE. Exigen un sistema operativo capaz de ejecutar esta
coordinación de tareas, y seleccionar el acceso a los recursos por prioridades. La comprobación o
validación de estos programas va más allá de la de las tareas aisladas, debiendo verificarse, también, las
relaciones entre ellas.
Los lenguajes de programación de tiempo real son aquellos capaces de definir todas las situaciones
que hemos exigido que realice un sistema operativo de tiempo real: interrupciones; sucesos internos y
externos; acciones respecto al tiempo absoluto; entradas/salidas, y, también, el tratamiento de
excepciones, para que pase a ejecutarse un procedimiento encargado de normalizar el funcionamiento
del sistema después del fallo e informar de éste.
Cuando se dispone de un buen monitor de tiempo real, el Ensamblador es una buena herramienta
para programar en tiempo real si los programas son cortos, si se dispone de programadores entrenados
y si se espera la venta de series largas. Tiene las ventajas de obtener mejores prestaciones por ocupar
menos memoria, conseguir tiempos de ejecución más cortos y acceder a todos los recursos de la máquina
de forma directa. Sus desventajas son: exigir tiempos de desarrollo altos, con elevado coste, escasa
portabilidad y seguridad; y su difícil legibilidad, que hace ardua su depuración, modificación y
mantenimiento.
56
Un segundo bloque de lenguajes de tiempo real lo constituyen las extensiones directas de los
lenguajes secuenciales y multitarea. Se citan al BASIC Tiempo real y al FORTRAN Tiempo real,
obtenidos por la incorporación a los lenguajes originales de monitores de tiempo real. Tienen la ventaja
de que parten con un conocimiento generalizado por parte de la comunidad de programadores, pero
resultan complicados para las aplicaciones de gran tamaño. Un tercer bloque lo constituyen los lenguajes
diseñados directamente para tiempo real. Se inspiran en los lenguajes de otros tipos como PASCAL
CONCURRENTE, o FORTRAN, pero no se derivan directamente de ellos. Separan completamente la
comunicación y sincronización entre los procesos informáticos y los externos, de lo que son los
tratamientos dentro de los propios procesos. Permiten una programación muy modular que facilita tanto
la escritura, puesta a punto, modificación y mantenimiento de los programas, como la validación de la
estructura global de control. Existen pocos lenguajes generales de este tipo. ya que tropiezan con el
problema de la diversidad de las aplicaciones. Esto hace que, en muchas ocasiones, se recurra a un
lenguaje formado por sublenguajes, entre los que destacan: el propio conjunto de instrucciones del
sistema operativo, el sistema de adquisición de datos y regulación, el subsistema secuencial y de
supervisión y el de comunicación con el operador. Entre los lenguajes de tiempo real recientes están el
PROCOL, inspirado en el FORTRAN, y el PEARL de tipo estructurado, más en la línea de ALGOL 68
o de PASCAL. Ambos tienen gestión de tareas, manejo de tiempos, gestión de entradas/salidas y gestión
de sucesos, siendo en el segundo más sencilla la verificación que, además, permite la definición de tipos
abstractos de datos y el tratamiento explícito de excepciones.
Mención aparte merece el ADA, diseñado bajo la petición del Departamento americano de
Defensa. expresamente para la programación de tiempo real de aplicaciones muy diversas con
complejidad media y elevada. Es absolutamente modular y cada tarea se programa en dos unidades
independientes, una de especificación y otra de realización o cuerpo, con todas las posibilidades de
comunicación y sincronización. También es más potente que los anteriores en manejo de tiempos, ges-
tión de entradas/salidas y manejo de interrupciones, pero, además, incluye un conjunto predefinido de
excepciones, ampliable por el programador, que se dispara automáticamente en el momento en que se
dan las condiciones de error y a las que se puede asociar el tratamiento que se desee. Además, para
facilitar la elaboración de grandes paquetes, se le asocian otra serie de facilidades como seguimiento de
versiones de programas y otras herramientas independientes del lenguaje en sí.
Entre los lenguajes orientados a problemas concretos están los de adquisición de datos y
acondicionamiento de señal, con rutinas de filtrado, conversión de datos, linealización y comprobación
de alarmas; los de control digital, con algoritmos de regulación (P, PI, PD, PID), tiempo mínimo, Smith,
Dazlin, contról en cascada y prealimentación, y otros más avanzados, incluso adaptativos; los de control
secuencial, para operaciones por lotes o de arranque y parada, a base de esquemas con relés, diagramas
lógicos, ecuaciones lógicas, Redes de Petri o Grafcet; los de tipo conversacional o algunos de rellenado
de formularios, o los ya muy especiales como son los de control numérico de máquinas-herramienta o
los de control de robots.
Los lenguajes para tiempo real en sistemas distribuidos exigen, además de las características de
los de tiempo real, capacidad de tratar la tolerancia a fallos de las configuraciones redundantes y la
57
distribución física de los programas, que obligan a realizar tanto descripciones estructurales. como
funcionales del problema y su solución. Este campo es un terreno totalmente nuevo. Solamente se puede
hablar del Multicomputer-PEARL (MCP), desarrollado en Alemania Federal, capaz de describir
reconfiguraciones en caso de fallo, con caminos alternativos y valores sustitutivos.
Comunicación hombre-máquina
Simulación
El diseño del control de una instalación exige realizar numerosas pruebas y ensayos que no
siempre se pueden efectuar sobre ella misma, por el riesgo que comporta o, incluso, por hallarse en fase
de diseño. Es importante para el control de procesos disponer de herramientas y lenguajes de simulación
con los que construir modelos del proceso, y de su control real. Existen muchos lenguajes de simulación,
tanto de procesos continuos como discretos. Entre los primeros están ACSL, CSSL-IV, DARE, ISIS y
el desarrollado en España, ICDSL. Entre los segundos está el clásico GPSS.
Conectado con la simulación está lo que se conoce como Diseño con ayuda de computador de
sistemas de control, cuya actividad consiste en un conjunto de herramientas informáticas para diseñar y
probar por simulación distintos tipos de algoritmos y filosofías de control, monovariable o multivariable,
continuos o discretos, determinísticos o estocásticos, lineales o no lineales. No debe o!vidarse que la
simulación, cada vez más apoyada en herramientas gráficas, constituye la base de la Ingeniería con
ayuda de computador, herramienta fundamental del ingeniero de diseño, en casi todos los campos, para
aumentar su productividad.
Entornos de programación
BIBLIOG RAFIA
1. Dormido, S, Prada de, C.: "Fundamentos y técnicas básicas en el control de procesos por
ordenador" Notas del IV Curso. "Automática en la Industria". Peñíscola, mayo 1984; ed. AEIA.
2. Computer, febrero 1984. Número especial "Software for industrial process control." IEEE Com.
Society.
3. Martínez, J., Silva, M.: "Lenguajes de programación para el control de procesos industriales".
Regulación y Mando, 134; Dic. 1983 pág. 127-137.
4. Getler, J., Sedlak, J.: "Software for process control - A Survey". Automática, v. 11, pg.613-625.