Sei sulla pagina 1di 58

1

UNIVERSIDAD AUSTRAL DE CHILE


FACULTAD DE CIENCIAS DE LA INGENIERÍA
Instituto de Materiales y Procesos Termomecánicos

Apuntes Módulo VIII


Curso
Transmisión y control de potencia
Unidad Control de procesos por computador

Prof.: Misael Fuentes P.

Este material es una reproducción parcial del Texto


"Control de procesos industriales por computador"
de José Nó y J.Mª Angulo.
Edit. Paraninfo año 1989

Valdivia, Agosto 2017


2

Capítulo I
Historia y fundamentos del control de procesos por computador

LA AUTOMATIZACION

La larga evolución de un conjunto muy variado de tecnologías con entidad propia, ha conducido
hasta el estado actual del denominado Control de Procesos por Computador (CPC).

Todas esas tecnologías cuentan con un alto grado de madurez y desarrollo, que más adelante
detallaremos. Pero también podemos estudiar el CPC como un elemento de un "todo" más amplio, sin
descomponerlo en sus partes. Y este "todo" es la AUTOMATIZACION. Tal es su importancia para el
mundo industrial y económico, que, no sólo se aprovecha de los logros de muy diversas tecnologías,
sino que, además, sirve de motor, acicate y ayuda para el desarrollo de todas ellas. Sin la automatización
no se conseguiría su evolución.

Según la Real Academia Española de la Lengua:

"Automatización es la aplicación de la Automática a cualquier tipo de proceso" y "Automática


es la ciencia que trata de los métodos y procedimientos, cuya finalidad es la sustitución del
operador humano por un operador artificial en la ejecución de una tarea física o mental
previamente programada". Con una definición más sencilla "Automatización es la realización
mediante máquinas de funcionamiento autónomo, sin intervención del hombre, de tareas y
funciones antes encomendadas a éste".

La ejecución de tareas, antes realizadas por el hombre, mediante máquinas, se da en todos los
ámbitos de la vida, sin tener por qué relegarse al trabajo industrial. A través de las máquinas, el hombre
aumenta su capacidad para hacer cosas a la vez que descarga sobre ellas aquellas actividades que pueden
considerarse menos propias del ser humano, como el esfuerzo, la potencia y la repetición sin variaciones,
reservando para sí la actividad creadora y el empleo de la inteligencia. La historia de la automatización
es la historia de este reparto de trabajos que, al fin y al cabo, constituye la historia del progreso de la
Humanidad.

Al considerar la automatización no debe restringirse su visión a las tareas relacionadas con la


actividad productiva del hombre o la actividad industrial. Téngase en cuenta que, en el fondo, dicha
actividad industrial está enfocada a la automatización de otras actividades de la vida: la vivienda, la
higiene, el desplazamiento, etc., surgidas de esta misma automatización o desarrollados por ella.

La importancia de la automatización proviene del hecho de asumir las máquinas la parte más dura
del trabajo, la menos inteligente y, por lo tanto, la menos humana. Además, en la actividad industrial
esta importancia tiene también un fundamento económico por su conexión con la productividad. La
situación de la economía a todos los niveles exige disponer de una industria competitiva y para
conseguirlo, hay que disminuir el coste de los productos y mejorar su calidad. Ambas cosas requieren
3

la sustitución del hombre por la máquina.

La automatización industrial no es un fenómeno reciente. Desde que la actividad industrial


sustituyó a la artesanal, el hombre ha procurado obtener el máximo rendimiento del trabajo mediante la
acción combinada de: herramientas, máquinas y organización. Sin embargo, aunque con distinta
incidencia sobre los diferentes sectores industriales, este proceso de automatización ha estado sometido
a una creciente aceleración basada en nuevas teorías, inventos y tecnologías reduciéndose cada vez más
el intervalo transcurrido entre el hallazgo y su aplicación industrial.

En las últimas décadas esta aceleración ha crecido con tal rapidez, que en estos últimos años,
puede hablarse de una auténtica explosión. En la década de los 40, la teoría de Control automático y la
Electrónica vienen a revolucionar la industria, cuya automatización hasta entonces se apoyaba en la
mecánica, la hidráulica, la neumática y la electromecánica. Con los primeros computadores se consigue
un salto cualitativo en la industria al que sigue, posteriormente, el desarrollo de la electrónica digital. Al
comienzo de los 70, la expansión de la informática y la aparición de los microprocesadores supone un
nuevo impulso que permite la aplicación de la automatización a nuevas tareas y la potenciación de
máquinas extraordinariamente necesarias, como los controladores lógicos programables, los reguladores
multibucle y los robots, entre otros.

LA AUTOMATIZACION EN LA INDUSTRIA DE PROCESOS

La automatización puede introducirse, prácticamente, en todas las tareas que el hombre considera
como trabajo. Sin embargo, no será la misma para todas ellas, pues por ejemplo, la automatización de
las actividades de gestión, económicas y administrativas, que se dan en el sector de servicios (como la
existente en bancos, hoteles, o en la misma Administración Pública), es completamente distinta de la
necesaria en una instalación industrial. Pero, incluso dentro de la industria, hay dos tipos muy distintos
con problemas diferentes y en los que su automatización ha evolucionado a ritmos también dispares. Por
un lado, tenemos la industria con procesos de tipo continuo (se trabaja realmente de forma continua o
por coladas u hornadas, batch). Estos procesos son básicamente de tipo químico y se conocen como
procesos de producción o simplemente procesos. Por otro, están los de tipo discontinuo, en los que se
trabaja sobre piezas discretas independientes entre sí, que luego se unen para obtener equipos o sistemas.
Es la industria de los procesos de fabricación, o la industria de fabricación.

En los "procesos", las materias que se manipulan son casi siempre gases o líquidos, y, cuando
no es así, no se opera sobre unidades individuales, sino sobre un flujo de producto. Esta diferencia es
esencial con los "procesos de fabricación" que trabajan sobre cada pieza o unidad, con tratamiento
individual y a ella se debe que la automatización de ambos tipos, haya tomado hasta hoy rumbos y ritmos
distintos. Solamente con la llegada de los robots y de lo que se conoce como automatización flexible,
ha sido posible dar el salto en la automatización de una tarea concreta con una máquina particular para
una pieza determinada, dentro del conjunto de las operaciones de una instalación para una gama de
piezas relativamente amplia. Todo ello se ha basado en el servocontrol de posición para controlar los
4

movimientos.

En la Tabla Nº 1.1 se presenta un cuadro con las diferencias más importantes en una serie de
características, entre la automatización de los procesos de producción y la de los de fabricación.

Característica Procesos de Producción Procesos de Fabricación

Entradas por Sensores Fuente Principal de información Fuente secundaria de Información. De


Valores de variables tipo acontecimiento o tiempo.

Entradas de origen humano Fuente secundaria de información Fuente principal de información.


Consignas Diseños, ordenes, estado de trabajo.

Base de datos Escasa Muy grande, siempre creciente, y


clave para el sistema

Técnica de control Realimentación y prealimentación Manipulación , actualización y


Bucles, ganancias, dinámica muy suministro de grandes volúmenes de
importante información.
Equipo de control Reguladores Controladores Lógicos Programables

Interfaces de salida Estaciones De Consigna, Válvulas Plotters, máquinas-herramienta, robots,


equipos de ensayo automático

Impacto socio-econonómico -laboral Modesto Muy Grande

Epoca de desarrollo 1960 - 1975 1975 - 1990

Tabla Nº 1.1 Principales diferencias entre la automatización de los procesos de producción y los de fabricación.

TECNOLOGIAS DE CONTROL DE PROCESOS POR COMPUTADOR

No debemos olvidar que el CPC es, como hemos dicho, el fruto de la integración de los logros de
diversas disciplinas y tecnologías, siendo muy difícil señalar la más importante, al jugar todas un papel
destacado, aparte de su mutua dependencia. Las más relevantes son:

- Electrónica. Incluyendo microelectrónica, técnicas de medida y tratamiento de señales,


interfaces y redes de comunicación, instrumentación y analizadores.

- Ingeniería de Procesos y conocimiento de su dinámica.


5

- Teoría de Control Automático: En la que se incluyen los métodos matemáticos correspondientes.

- Informática: Software y Hardware a la vez: unidades centrales, memorias y todo tipo de


periféricos: discos, impresoras, pantallas gráficas y lenguajes, sistemas operativos, ingeniería del
software y técnicas de programación.

- Dispositivos de actuación: Válvulas, motores, etc.

EVOLUCION DEL CONTROL DE PROCESOS

Antes del siglo XX ya se había planteado el problema del mando de los procesos de forma
automática, llegándose en algunos casos a soluciones asombrosas para la época. El ejemplo más
conocido es el llamado "governor" (o Controlador) de Watt, para el control de una máquina de vapor.
Sin embargo, durante mucho tiempo, el control se llevó a cabo de una forma totalmente manual o
humana. Aún hoy se encuentra este tipo de "control" en algunas actividades artesanales (alfareros, for-
jadores, etc.). Los sentidos del operario miden la evolución del proceso para corregir las desviaciones
existentes, comprobando que las acciones llevadas a cabo tienen el efecto previsto, hasta conseguir
alcanzar el comportamiento deseado. Esta forma de trabajar, que en muchos casos da resultados
satisfactorios para lo que se pretende, se dice que es "by-guess-and-by-golly" (por adivinación y
salivazo), ya que así es como controlaban sus hornos, antiguamente, los fabricantes de porcelana: el
operario escupía sobre el horno y, si la saliva no se evaporaba inmediatamente, era necesario más
combustible.

Este control manual depende totalmente de la apreciación subjetiva del operario con las
consiguientes variaciones en la calidad del producto resultante.

La siguiente etapa de la evolución aparece con la introducción de los dispositivos de medida y


grabación. Los primeros proporcionan al operador información exacta, rápida, consistente y siempre
igual en las mismas condiciones. Los segundos le informan de la evolución, evitándole la anotación
continúa. Sin embargo, el modelo del comportamiento deseado todavía no está formalizado y la
comparación entre éste y los resultados dados por las medidas, sigue haciéndola el operario, al igual que
la ejecución de las correcciones necesarias.

Para que el mando se realice de forma automática es preciso "sustituir al hombre" (el Iiveware,
como algunos han dado en llamarle frente al software, hardware, firmware...) por un dispositivo físico,
que automáticamente realice las tareas de comparación y producción de la acción correctora. El operador
se ocupa entonces de establecer el patrón de comportamiento con el que ha de compararse (en la fase de
puesta en marcha principalmente), para fijar la forma en que el dispositivo debe determinar la acción
correctora.

Toda esta evolución en el control de procesos tuvo lugar en un largo período de tiempo. Los
6

dispositivos empleados eran básicamente neumáticos o mecánicos. Aunque el control era todavía un
arte basado en la intuición, las consideraciones eran principalmente cualitativas más que cuantitativas y
las diferentes partes del proceso se medían y controlaban independientemente. El conocimiento del
proceso era aún muy escaso y el control se consideraba teniendo en cuenta, únicamente, los equipos y
la instrumentación.

El cambio se produce durante la II Guerra Mundial, al ser necesarios los sistemas de control. Los
trabajos de Nyquist, Black, Rynorslay y otros, basados en el estudio del comportamiento en el dominio
de la frecuencia por haberse desarrollado en la teoría de circuitos, empiezan a constituir un cuerpo
teórico en sí mismos, conocido como teoría de servomecanismos o de control por realimentación, que
se intenta aplicar al estudio del control de otros sistemas, tales como los procesos de producción.
Simultáneamente prosiguen los estudios (como los de Campbell), sobre la dinámica de los procesos, y
todo ello permite plantear el control de proceso por primera vez sin considerar únicamente la instru-
mentación, sino teniendo en cuenta, además, el conjunto proceso-instrumentación y proceder al diseño
de los sistemas de control de procesos con técnicas cuantitativas.

A partir de este momento, la evolución continúa con ritmo creciente, incorporando, no sólo los
estudios teóricos de la teoría de control, la optimización y la dinámica de los procesos, sino también los
avances en equipos: sensores, controladores, electrónica, computadores y microprocesadores, según van
apareciendo.

Al principio, los controladores fueron neumáticos para verse, poco a poco, desplazados por los
electrónicos, aunque cada proceso seguía disponiendo de su propio controlador. A la vez que se
desarrolla la electrónica, aparecen los primeros computadores empleados para el control de procesos.
Ello favorece la tendencia, aparecida hacia mediados de la década de los 50, de concentrar todos los
controladores o reguladores en un solo lugar, con lo que se tiene el control centralizado, de forma que
un operario puede vigilar el funcionamiento de diferentes magnitudes de un proceso o de varios procesos
interdependientes de una fábrica. Cuando se emplea un computador, éste puede desempeñar el papel de
varios controladores, para vigilar simplemente el funcionamiento de éstos, o incluso a fijarles las
referencias. La llegada del computador hace que los controladores incluyan la posibilidad de ser
gobernados por aquél como una opción.

Finalmente, con la entrada del microprocesador y su generalización, la potencia, flexibilidad y


capacidad de decisión del computador se reparten por toda la fábrica, con las consiguientes ventajas de
fiabilidad y aumento de potencia. Estamos, pues, ante el control de procesos distribuido.

NECESIDAD Y OBJETIVOS DEL CONTROL DE PROCESOS POR COMPUTADOR


7

Incluso los sistemas de control de procesos centralizados, pero que no poseen un computador,
tienen una serie de inconvenientes muy importantes:

1. Hay una falta de integración, ya que no se controla el proceso como un todo.

2. Los resultados dependen en gran medida del operador.

3. El almacenamiento y tratamiento de los datos es molesto, costoso y lento.

4. No se puede optimizar el funcionamiento de la fábrica buscando alcanzar unos objetivos


económicos.

5. Debido a la lentitud de la respuesta de un operador humano, hay un gran riesgo de trabajar


en condiciones de servicio no tolerables o incluso peligrosas.

Estos inconvenientes se solventan, casi en su totalidad, con el empleo de computadores que


automatizan el control de los procesos. El computador proporciona:

a) Una gran velocidad de procesamiento de la información.

b) Una gran capacidad de almacenamiento de información.

e) Posibilidad de toma automática de decisiones.

Para esto, el computador se hace cargo de:

- El tratamiento y la vigilancia de los datos.

- En algunos casos, el control digital directo.

- El control supervisor y el control del programa.

- El control de optimización de la instalación.

La introducción del computador tiene por objetivos (y en función de cómo los alcanza, así se
justifica) aumentar la productividad y homogeneidad del producto, lo que, en el fondo, también se
traduce en un beneficio económico notable, por menor precio del producto y mejor utilización de las
materias primas. En cuanto a la productividad, puede medirse por varios índices siendo los más
utilizados, el valor del producto por unidad de inversión, por trabajo realizado o por materias primas
empleadas. Se puede considerar al conjunto de los tres como el índice más representativo.
8

CLASES DE CONTROL EN LOS PROCESOS

Desde el punto de vista del control se pueden considerar dos tipos muy diferentes de actuaciones,
ya reflejados de alguna manera en la Tabla Nº 1. Un tipo trata del valor que han de tomar las variables
del proceso, haciendo que su evolución siga un determinado comportamiento, o manteniendo un valor
deseado. Es la regulación. El otro, se fija en la generación de señales, que normalmente son de tipo
binario para el mando de las etapas o acciones del proceso, en función de la combinación, temporizado
y/o secuenciado, de otras acciones de éste. En la Tabla Nº 1.2 se pueden ver las diferencias entre ambos
tipos de actuaciones.

ATRIBUTO REGULACION SECUENCIADO


PARAMETROS A CONTROLAR Valores de las variables Lógica de variables,. Combinación,
secuenciado y temporización

VA LORES Continuos Binarios, discretos

EQUIPOS Regulador Controlador lógico programable

MODELADO Ecuaciones físicas, dinámica del Redes de Petri


sistema. Grafcet
Función de transferencia Máquinas de estado finito
Gráficos de Bond

CALCULO Ajuste de parámetros del regulador. Cálculo combinacional y secuencial


Determinación de la estructura del
regulador

Tabla Nº 1.2 Diferencias entre los dos tipos de actuaciones de control.

BIBLIOGRAFIA

1. Lee, T.H., Adams, G.E., Gaines, W.M.: "Computer process control: Modelling and optimization".
John Wiley, 1968.

2. Buckley, P.S.: "Techniques of pro cess control", John Wiley; 1964.


9

Capítulo II
Regulación
La regulación es el núcleo el alma de la teoría del control automático, que es a su vez, la teoría
matemática en que se apoya la automatización. Sus principios y resultados se aplican continuamente en
la industria y en la vida diaria para conseguir que el funcionamiento de máquinas, equipos y dispositivos,
se realice según lo establecido. A nuestro juicio, la regulación es uno de los principios básicos de la
vida. Lo mismo que la inercia, que no es otra cosa que la expresión física del principio vital de la resis-
tencia al cambio a cualquier cambio de situación, y para que se produzca ese cambio haga falta realizar
un esfuerzo, la regulación es la formalización y reducción a ecuaciones del principio del aprendizaje y
la corrección por la experiencia. Antes de su formulación matemática y de sus técnicas de utilización,
ya se había utilizado en la práctica: el primer trabajo notable fue el regulador centrífugo de Watt para
controlar la velocidad de una máquina de vapor, en el siglo XVIII.

En este capítulo vamos a presentar los principios básicos del control automático. en el que la
regulación es la técnica central, junto con los problemas asociados y la forma de resolverlos, dejando
para el siguiente la descripción de las técnicas mas modernas disponibles hoy en día para realizar este
control.

DEFINICIONES. LA REALIMENTACION

El control aparece cuando queremos que una propiedad o variable, que caracteriza a una operación
o a un proceso, tome un determinado valor o conjunto de valores, y estos dependen de los que, a su vez,
tome otra propiedad o variable, al existir entre ambas variables una determinada relación de dependencia
que representamos por un modelo. Variando una de ellas, podremos controlar los valores de la otra y
precisarlos. En la Fig. 2.1 se representa esta situación con la nomenclatura utilizada: la variable primera,
que queremos tome unos valores determinados, recibe el nombre de variable de salida o salida,
simplemente, mientras que la otra, es la entrada, también conocida como señal de control.

Fig. 2.1.- El control de un proceso se lleva a cabo cuando se puede regular el valor de la
variable de salida variando la señal de control o entrada.

Cuando se conoce la relación entrada/salida y ésta no varía, es suficiente con que la entrada tome
10

los valores correspondientes, lo cual se consigue directamente o mediante el controlador apropiado.


Estamos ante la forma de control que se conoce como de lazo o bucle abierto, en la que no se aplican
los principios del control automático. Esta forma de acción directa presenta, además, muchos problemas
derivados del hecho de que, al elaborar las órdenes, desconocemos totalmente si el proceso, alcanzará
en su salida los valores buscados o, por cualquier razón, no ocurre así, siendo esto último lo que sucede
en la práctica.

Normalmente, el comportamiento del proceso se representa mediante una expresión matemática


que se conoce como su modelo, que no es una representación exacta, sino simplificada del
comportamiento real, válida siempre que el proceso funcione en unas determinadas condiciones, que no
tenga en cuenta otros factores que afecten al comportamiento del proceso, y que se habían considerado
invariantes al prepararlo. Estos factores suelen recibir el nombre de perturbaciones, en general, pero el
que representa el trabajo a realizar por la operación o proceso y que puede sufrir variaciones (el volumen
de líquido contenido en un tanque de calentamiento, por ejemplo), se denomina carga del proceso. Todo
ello puede hacer que el valor real de salida no sea el deseado. En la Fig. 2.2.- se presenta un esquema
por bloques de un proceso con estos factores.

Fig. 2.2. - Los factores más importantes que alteran el comportamiento del proceso son las
perturbaciones y la carga.

La forma de conseguir que la salida no sea afectada, o lo sea en menor grado, por las
perturbaciones, las variaciones de la carga o las inexactitudes o simplificaciones en el modelado y, a la
vez, corregir las desviaciones que se produzcan, es utilizar esa misma salida para generar las órdenes o
valores de entrada, de forma que, no sólo se alcance dicho valor deseado, sino que, además, corrija las
desviaciones que pueden producirse. Tenemos así un control en lazo o bucle cerrado. Sus elementos
aparecen en la Fig. 2.3. La salida del proceso se mide mediante el dispositivo adecuado y su valor se
compara con el deseado, denominado consigna o referencia. La diferencia entre ambos valores es el
error existente, que, a su vez, sirve de señal de entrada a un dispositivo que calcula el valor que debe
tener la entrada o control para cada error. Este dispositivo recibe el nombre de controlador o regulador.
11

La señal que genera se manda al actuador, que es el encargado de que dicha entrada se produzca.

Fig. 2.3. - Control en lazo cerrado.

Con esta estructura, el sistema total se autocorrige de las posibles desviaciones, mediante la
introducción de un retorno y un dispositivo controlador. Este retorno se conoce como rama de
realimentación o simplemente realimentación que es "negativa" puesto que se resta de la consigna.
También puede existir la realimentación positiva. En la práctica esta realimentación se da siempre
aunque el controlador puede no ser un dispositivo, sino un hombre. Si un tanque se está llenando y, a la
vez, se vacía, controlado por un operario encargado de que el nivel del líquido se mantenga todo lo
posible, el operario es el elemento medidor de la altura al compararla con la que debe mantenerse y,
actúa como controlador: si el nivel está más alto, disminuye el caudal de entrada y, si está más bajo, lo
aumenta.

Esta acción autocorrectora de la realimentación (principio en que se basa el control automático)


queda reflejada en la tabla de la Fig. 2.4, en la que se presenta como actúa el controlador contra la
desviación existente en la salida.

COMPARADOR CONTROLADOR
COMPARACION ERROR ENTRADA SALIDA
SALIDA=REFERENCIA 0 NULA SE MANTIENE
SALIDA> REFERENCIA NEGATIVO NEGATIVA DISMINUYE
SALIDA<REFERENCIA POSITIVO POSITIVA AUMENTA

Fig. 2-4. - Acción correctora de la realimentación.


12

ELEMENTOS DEL BUCLE DE CONTROL

Vamos a considerar brevemente los elementos que forman parte del bucle de control, indicando
su participación en el control y sus particularidades. El proceso en sí y el controlador se tratarán de
forma especial.

Medida

Para que el control sea automático, la medida debe serlo también y realizarse en un período lo
suficientemente corto respecto a la evolución del proceso, como para que frente a éste pueda
considerarse como continuo. Es preciso, entonces, disponer de dispositivos sensores de la variable a
medir y elaborar la información que nos dan, de forma que tengamos una buena medida.

Con la expansión actual de la automatización, el desarrollo de sensores adaptados a las necesidades


del control con computador se ha convertido en uno de los objetivos prioritarios en todas las naciones.
La señal dada por el sensor debe ser amplificada y filtrada, hay que hacer correcciones del tipo
"compensación de temperatura" y "linealización", y, cuando se requiere, también se la somete a
"multiplexado" y "conversión A/D" (Analógico/Digital). Al elegir los sensores deben tenerse en cuenta
sus características; siendo las más importantes: precisión, zona muerta, reproductibilidad, tiempo de
respuesta, histéresis, rango, sensibilidad, no linealidad, deriva y materiales.

Referencia

La referencia establece el valor que, en cada instante, debe tener la salida del proceso. Su valor,
por tanto, debe venir fijado a un nivel superior, de acuerdo con la evolución global de la factoría. Para
el control automático, el lazo de control tendrá dos comportamientos distintos. Si la referencia se
mantiene fija, el control sólo tiene en cuenta las perturbaciones y actúa para corregir las variaciones que
producen en la salida: es el problema del regulador. Si la referencia va variando su valor, el control
debe hacer que la salida siga esos cambios y, normalmente, no tiene en cuenta otros, debidos, por
ejemplo, a las perturbaciones; es el problema del servomecanismo.

Actuación

La señal producida por el elemento de decisión, el controlador, debe gobernar un elemento de


actuación al que lleva a un estado de funcionamiento. El actuador es el encargado de que la variable de
entrada o control tome el valor correspondiente. Los actuadores más empleados son válvulas y motores.

EL PROCESO: MODELADO Y ESPECIFICACIONES


13

Para poder plantear el problema del control de un proceso se hace imprescindible conocer cómo
se comporta éste, cómo evoluciona su salida para determinadas evoluciones de la entrada. Normalmente,
este conocimiento del proceso o no es completo, o es tan complejo de expresar mediante una formulación
matemática, que no resulta útil o manejable para el control. Esta formulación abstracta del
comportamiento del proceso es lo que se conoce como modelo. La representación de fenómenos por
modelos es una actividad connatural de la Ciencia, que intenta explicar cuanto ocurre, indicando que un
determinado fenómeno se comporta "como si...".

Desde el punto de vista del control sólo interesa conocer el comportamiento interno del proceso,
en cuanto nos permite describir sus interacciones con el medio exterior. El modelo a elaborar depende,
por tanto, de su utilización, es decir, en nuestro caso, debe describir el comportamiento de la salida a lo
largo del tiempo, en función de las entradas y perturbaciones que pueda recibir el sistema.

Para el modelado de un sistema hay dos técnicas totalmente diferentes que nos llevan a los modelos
de conocimiento y de representación.

Modelado de conocimiento

Es el que se realiza a partir del conocimiento que se posee a priori del funcionamiento del proceso,
y que se obtiene a partir de las leyes físicas que rigen los fenómenos que tienen lugar en él. Las
operaciones a realizar en este modelado son siempre las mismas. El primer paso es la definición del
proceso, determinando sus límites, sus entradas, por las que el exterior actúa sobre él, sus salidas o las
características que tienen interés y las restricciones y condicionantes a que puede estar sometido. A
continuación, deben establecerse las hipótesis de trabajo sobre el funcionamiento del sistema que
permitan abordar el modelado y describir el estado del sistema. Se estudia entonces el empleo de las
leyes físicas para la construcción del modelo; normalmente se realiza mediante el establecimiento de
balances de masa, energía o fuerza, haciendo intervenir las leyes de Física y Química. Tanto la elección
de las hipótesis, como la escritura de las ecuaciones del proceso, requieren una buena comprensión de
su funcionamiento. Si esto es así, al final de esta etapa dispondremos de una serie de ecuaciones que
expresan el modelo de conocimiento, pero cuyos coeficientes pueden ser totalmente conocidos o no. Si
no ocurre así, será preciso abordar una nueva etapa de determinación del valor de dichos parámetros por
técnicas de ajuste u otros métodos. Con el modelo así obtenido hay que proceder a su validación,
comprobando si describe el funcionamiento del proceso con precisión suficiente para las aplicaciones
previstas. Finalmente, la evaluación definitiva se produce en la utilización del modelo realizado,
comprobando si sus predicciones se ajustan al comportamiento real del proceso.
14

Modelado de representación

Esta técnica, se basa en suponer que el proceso se comporta de acuerdo con una expresión matemática
escogida a priori, normalmente una ecuación diferencial de grado n (que puede valer 3, 4 ó 5), lineal de
coeficientes constantes, completable con un retardo puro. En este caso se desconocen todos los
coeficientes y se procede, como en el modelado por conocimiento, a partir de la etapa de identificación
y ajuste de los parámetros. Existen técnicas para obtener modelos sencillos de procesos complejos y
determinar cuál es el orden del modelo que mejor se ajusta al comportamiento real y el valor de los
parámetros de este modelo.

Los modelos pueden ser de muchos tipos: continuos, cuando las variables toman valores en
cualquier instante o discretos, cuando los toman sólo en instantes prefijados, periódicos o no. Estos
modelos discretos son muy apropiados para el control digital mediante computadores. Pueden ser
determinísticos, si se toman valores perfectamente predecibles, o estocásticos, si las señales están
contaminadas por ruidos aleatorios, de parámetros concentrados, si se expresan por funciones
dependientes del tiempo, y su comportamiento se describe entonces por ecuaciones diferenciales
ordinarias, o de parámetros distribuidos, que se expresan por funciones dependientes del tiempo y el
espacio, y se describen por ecuaciones diferenciales en derivadas parciales.

Todos estos tipos pueden ser lineales, cuando la suma de acciones produce un efecto suma de los
efectos, o no lineales. Estos últimos son mucho más difíciles de tratar, por lo que se establecen modelos
simplificados, linealizados. Para conseguirlo, se toma un punto de funcionamiento y se deduce del
modelo no lineal, derivándolo, un modelo de las variaciones del modelo alrededor de dicho punto, pero,
considerando sólo las primeras derivadas.

Normalmente, los modelos que se utilizan son del tipo dinámico, pues describen la evolución del
proceso en función del tiempo. En determinados casos, cuando esta evolución es lo suficientemente
rápida como para que pueda ser despreciada, el modelo describe únicamente el funcionamiento del
proceso en el equilibrio, tratándose de un modelo estático. Cuando esto ocurre, y el proceso está en
equilibrio, se dice, también, que se encuentra en estado estacionario. Al producirse un cambio en una de
las entradas, el proceso evoluciona hasta alcanzar un nuevo estado estacionario. Esta evolución, función
del tiempo, se denomina transitorio del sistema.

Para la representación del modelo en el caso de ser lineal continuo se suele emplear la
transformada de Laplace, que consiste en una proyección del sistema sobre el plano complejo, con lo
que la ecuación diferencial se convierte en algebraica, función de la variable s compleja, que transforma
las integraciones en divisiones por s y las derivadas del tiempo en productos por s, facilitando
extraordinariamente el cálculo. El proceso queda representado por un coeficiente de polinomios en s,
conocido como Función de transferencia, que representa la relación entrada/salida. De ella se obtienen
los parámetros que caracterizan al sistema, las constantes de tiempo que indican su velocidad de
respuesta en los transitorios, el tiempo de retardo que nos informa del tiempo transcurrido desde que se
produce una variación en la entrada hasta que se empieza a notar su efecto en la salida, y la ganancia,
que es la relación entra la variación producida en la salida y la variación de la entrada que la genera.
15

Esta representación del proceso mediante la función de transferencia se conoce como representación en
el dominio de la frecuencia, ya que, mediante una sustitución de la variable s, nos es posible conocer
cómo se comporta el sistema frente a señales oscilatorias de distinta frecuencia, y así definir
perfectamente las características del sistema.

Otra forma de representar el comportamiento de un proceso consiste en establecer un sistema de


ecuaciones diferenciales de primer orden de unas variables que representan el estado interno del sistema.
Estas variables pueden o no tener significado físico y se pueden elegir de muy distintas maneras. Esta
representación se conoce como representación de estados y la ecuación, como ecuación de estados. Va
acompañada de otra que relaciona los estados con la salida. En el conjunto de variables de estado que
caracterizan a un proceso, se encuentra contenida la historia de su evolución y de las entradas que han
actuado sobre él.

En el desarrollo de técnicas avanzadas de control, suele emplearse con gran frecuencia una
representación función del tiempo. En el modelado y descripción del comportamiento de un sistema,
son de gran interés las formas de conocer la bondad de dicho comportamiento. Independientemente de
la estabilidad (de la que citaremos algunas ideas posteriormente) cuando se trabaja en el dominio del
tiempo, para comparar el comportamiento de distintas estructuras de control del sistema se utilizan
señales de prueba normalizadas. De todas ellas, la más conocida es el salto-escalón en la entrada, que es
el paso de un valor constante a otro. Como especificaciones o índices de comportamiento a un salto-
escalón unitario, se emplean los representados en la Fig. 2.5

Fig. 2.5. - Especificaciones en el dominio del tiempo.


16

Para obtener las características de un proceso en el dominio de la frecuencia, se emplea una señal
senoidal de frecuencia creciente, barriendo todo el espectro de frecuencias, obteniéndose las curvas de
ganancia/frecuencia y de desfase/frecuencia. Como índices de comportamiento, se tienen los definidos
en la Fig. 2.6

Fig. 2.6.- Especificaciones en el dominio de la frecuencia

CONTROLADORES

Toda la teoría de control automático gira alrededor del diseño del controlador apropiado a cada
proceso, dependiente del modelo que se utilice y de las exigencias de funcionamiento impuestas, así
como, también, de la realización de dicho controlador. Este representa la lógica de actuación sobre el
proceso, función del comportamiento de este último, o mejor, de la desviación de su comportamiento
real respecto del deseado. Tiene, por tanto, como entrada, el error existente en el comportamiento del
sistema, y, como salida, la actuación que debe ejercerse sobre el proceso.
Debido a la rama de realimentación necesaria para el control automático, puede presentarse el
fenómeno indeseable de la inestabilidad, o pueden aparecer oscilaciones en el comportamiento del
proceso. Se dice que un proceso es estable cuando para entradas, con valores dentro de unos límites, las
salidas también se mantienen dentro de otros límites. Si introducimos una señal finita de entrada, dentro
de unos límites aceptables, y se comporta de tal forma que tiende a aumentar continuamente su salida,
sin límite, el proceso es inestable. Los procesos cuyo modelo es lineal, si son estables en unas
circunstancias, lo son en todas, no dependiendo de la señal que se les introduzca. No ocurre lo mismo
con los procesos no lineales, que pueden ser estables para unos determinados valores de la entrada pero
dejar de serlo para valores mayores.
Una forma especial de inestabilidad son las oscilaciones. Pueden amortiguarse rápida o lentamente
o, incluso, con un comportamiento abiertamente inestable, crecer en amplitud indefinidamente. El
controlador tiene por misión eliminar o reducir la inestabilidad de los procesos que son inestables en sí
mismos. Pero el empleo de la realimentación puede hacer que un proceso que no es inestable en si
17

mismo, mediante la realimentación dé lugar a un sistema de comportamiento inestable (lo cual ocurre
siempre que una acción correctora del error en lugar de reducirlo, lo aumenta) y debido al bucle, este
fenómeno se ceba en si mismo provocando el descontrol del proceso.
La estrategia normalmente empleada en los controladores es llevar el error a cero lo antes posible
y sin oscilaciones, tanto si es debido a perturbaciones, como a variaciones en la carga o a cambios en la
consigna. En la industria, los controladores más usados han sido los todo/nada (válvulas de dos
posiciones, por ejemplo) y los basados en las acciones: proporcional. integral y derivadora, debido a que
con ellos se conseguía un funcionamiento aceptable en la mayor parte de los procesos (una mejora
sustancial respecto al control manual por operador, tanto en funcionamiento como en calidad de
producto), y porque se consiguió construirlos, con las tecnologías existentes en cada época, aunque,
hasta hace muy poco, sólo existían los de tipo analógico.

TIPOS DE CONTROLADORES

El controlador más sencillo es el todo/nada. Su utilización más corriente tiene lugar cuando su
acción desencadena la evolución del proceso en un sentido y su inhibición lleva al proceso a evolucionar
en sentido contrario.

En la práctica, el comportamiento todo/nada, tipo relé, no es puro, sino que va acompañado de una
histéresis, tal y como se representa en la Fig. 2.7.- El paso a la acción no se da exactamente para el valor
fijado, sino para un valor un poco superior y el paso a la inhibición se realiza para un valor inferior al
fijado. Estos umbrales hacen que se produzca una oscilación de la salida alrededor del valor de la
referencia, tal y como puede verse en la Fig. 2.7.-

Fig.2.7.- Control todo/nada


18

El control proporcional provoca una señal de salida proporcional a la de entrada, o sea, al error.
La constante de proporcionalidad recibe el nombre de ganancia y su valor se puede fijar de acuerdo con
las necesidades de control del proceso. Algunas veces, en lugar de la ganancia, K, se utiliza su inversa
multiplicada por 100, que recibe el nombre de banda proporcional. Se trata de un control muy sencillo,
estable y fácil de ajustar, pero plantea el problema de que, si aparece un error estacionario, no es capaz
de eliminarlo.
Para eliminar un error de este tipo se emplea el control integral, cuya señal de respuesta es
proporcional no al error, sino a la integral de éste.

La constante de proporcionalidad que se toma es 1/Ti llamándose a Ti, constante de integración.


Este tipo de acción de control tiene, naturalmente, una respuesta lenta.
Para conseguir una respuesta rápida a las variaciones, se emplea el control derivador, en el que la
señal de salida es proporcional a la derivada del error, y, por lo tanto, proporcional a su variación. La
constante de proporcionalidad Td se conoce como constante de derivación. En la Fig. 2.9 puede verse la
respuesta de los tres tipos de control a distintas variaciones tipo del error.

Fig. 2.8.- Acciones de los modos de control según las diferentes entradas
19

En la práctica, los controles integral y derivador no se suelen emplear solos, sino unidos al
proporcional. El control proporcional integral (PI) tiene una salida suma de dos términos, uno
proporcional al error y otro proporcional a la integral del error. Por lo tanto, han de fijarse dos pará-
metros, K y T~. Este tipo de control elimina el error estacionario y tiene mejor respuesta dinámica que
el control integral sólo, pero, debido al término integral, puede producir inestabilidad en el sistema. El
control proporcional-derivador (PD) tiene una salida suma, también, de dos términos, u no proporcional
al error y otro, a su derivada. Tiene las ventajas de ser estable, dar menor error estacionario que el control
proporcional sólo (aunque no lo elimina) y ofrecer una rápida respuesta.

El tipo de control más empleado en los controladores industriales es el PID (Proporcional-Integral-


Derivador), compuesto de los tres tipos de acciones y, por lo tanto, su salida es la suma de tres términos:
uno, proporcional al error, otro, a la integral del error y el tercero, a la derivada del error. La expresión
que relaciona la salida del controlador, A, con el error e(t) que tiene como entrada, es entonces:

de (t )
A = Ke (t ) + T1i ò e (t ) dt + Td
dt

El controlador PID es el mejor de todos cuando está bien ajustado, es decir, si los valores de los
parámetros K, Ti y Td (ganancia, constante de integración y constante de derivación respectivamente),
son los más apropiados al proceso y al control deseado.
Proporciona una respuesta rápida y, a la vez, elimina el error estacionario. Sin embargo, al ser el
más complejo, es también el más difícil de ajustar. Existen métodos de aproximaciones sucesivas para

Fig. 2.9.- Respuesta de los distintos tipos de controladores a una entrada-escalón


20

ajustar o sintonizar los parámetros de un controlador PID sobre un proceso de dinámica complicada que
no se conoce bien aplicándose hasta que se logra la respuesta deseada. Estos métodos de tanteo se
han ido desarrollando gracias a la experiencia de su empleo por parte del personal encargado del control
de las diferentes clases de fábricas. Este ajuste del controlador es, sin embargo, mucho más sencillo
cuando se conoce un modelo del proceso y puede, entonces, realizarse teóricamente con un pequeño
ajuste final en la instalación, si fuera necesario. En la Fig. 2.9 se presenta la respuesta de los distintos
tipos de controladores para una entrada "salto". Se ve cómo el PID tiene el menor rebase, con los tiempos
de rebase y de asentamiento más cortos (respuesta más rápida) y no presenta error estacionario.

BIBLIOGRAFIA

1. Dormido, S y Prada de, C: "Fundamentos y técnicas básicas en el control de procesos por ordenador",
Notas del IV Curso "Automática en la Industria", Peñíscola, mayo1984. Ed. AEIA

2. Smith, C.L.: "Digital computer process control", Intex Educational Publishers,


1972.

3. Ogata, K.: "Ingeniería de control moderna", Prentice-Hall Internacional, 1974.

4. Takahashi, Y; Rabins, M.J, y Auslander, D.M.: "Control and dynamic systems Addison-Wesley
Pubí. Co., 1970.
21

Capítulo III
Técnicas modernas de control
Durante mucho tiempo las variables de una fábrica se relacionaban dos a dos, según el
conocimiento de su funcionamiento, tomando una como entrada y otra como salida (que era la que nos
interesaba controlar), y se establecían lazos de control con su controlador correspondiente. Se conseguía
así un funcionamiento automático de cada bucle en funcionamiento normal, pero seguía habiendo
problemas. La puesta en marcha de la fábrica no permitía el empleo de los controladores tal y como
estaban y la única solución posible, con la tecnología existente para realizar los controladores (neumática
o electrónica analógica), era conmutarlos a "manual" y que fuera el operador quien actuara sobre el
proceso. Esta solución era factible dada la lentitud de todos estos procesos, con muy elevadas constantes
de tiempo.

Pero resultaba que este tipo de controladores presentaba algunos problemas: había lazos que no
eran independientes y los controladores tenían que estar relacionados, los procesos eran mucho más
complejos en la realidad y existía una dependencia total entre todos los procesos y entre todas las
actividades de la factoría. Para conseguir mejorar el rendimiento total, había que mejorar el control. Tres
líneas de avance han sido las que han permitido realizar esta mejora con beneficios económicos
sustanciales:

-   Los desarrollos en la teoría de control automático,

- La sustitución de la tecnología electrónica analógica por la digital, bien con microprocesadores


o bien con computadores de control de procesos unido al avance en el desarrollo de nuevos y
mejores sensores para medir magnitudes convencionales y nuevas de forma más adaptada a
los nuevos equipos de tratamiento totalmente digitales, y

- El planteamiento global del control de la factoría.

El empleo de computadores digitales ha permitido utilizar las teorías de control desarrolladas,


elaborar nuevos algoritmos de control y realizar avances sucesivos hasta ese control global.

Dejando para temas posteriores el control con computador como una visión más general del
control, vamos a exponer en este capítulo las mejoras introducidas en los controladores al emplear
tecnología digital y las nuevas teorías de control empleadas para resolver determinados problemas del
control de procesos.

MEJORAS SOBRE EL REGULADOR PID

Cuando el control se realiza mediante un microprocesador en lugar de utilizar un circuito


electrónico analógico, los algoritmos de control se plasman en programas, quedando los parámetros
22

almacenados como constantes. Esto permite introducir variantes a las ecuaciones de descripción del
control PID, de acuerdo con los intereses de cada caso, y que luego se introducen en el controlador con
pequeñas modificaciones en los programas. Una variante de la forma típica del algoritmo PID consiste
en que la componente derivadora se toma proporcional no a las variaciones del error, sino sólo a las de
la señal de salida del proceso, evitándose así las grandes acciones del controlador cuando se producen
cambios importantes en la referencia.

Otra variante muy utilizada es considerar que el término derivador contiene un filtro, realizado
normalmente mediante una constante de tiempo o promediando cuatro o más medidas, con lo que se
consigue eliminar las componentes de alta frecuencia que puedan existir en la salida del proceso y que
darían lugar a variaciones elevadas en el control. Esto también se puede lograr mediante un filtrado
apropiado de las medidas antes de ser utilizadas para el control. A veces, se recurre a eliminar la
referencia del término proporcional, además de hacerlo del derivador. Esta estructura tiene la
característica de que la diferencia entre los valores obtenidos para los parámetros del controlador, si se
ajusta éste para compensar las variaciones en la referencia y si se hace para las perturbaciones en el
proceso, es menor que con otras estructuras. En la Fig. 3.1 se pueden ver esquemas de estas estructuras.
R es la referencia, U es la salida del controlador, entrada al proceso, e Y es la salida de éste. En los
controladores comerciales con microprocesadores y en los paquetes de programas de control se incluyen
algoritmos PID con no linealidades.

En los controladores comerciales con microprocesador se han incluido en los algoritmos recursos
para resolver los dos principales problemas operacionales que se presentan en los controladores PID: el
paso de manual a automático y la saturación de la salida del controlador. Para el primero se utiliza la
transferencia sin salto (bumpless) y para el segundo existen varios métodos, cuya acción básica es limitar
el término integral (reset wind up).

La transferencia sin saltos se consigue garantizando que, durante el funcionamiento en manual, el


regulador produzca la misma señal que se está introduciendo manualmente al proceso. Si el algoritmo
de control está expresado en forma incremental, no aparecen problemas, pero, si está dado en valores
globales, puede ocurrir que la salida del regulador sea distinta que la señal manual, produciéndose un
salto brusco en la entrada, que desequilibrará el proceso. La forma de actuar es asegurarse de que el
valor del integrador es correcto en el instante del cambio, ya que es el único término que podemos variar
y no viene fijado. Esto significa que, durante el funcionamiento en manual (en que el controlador está
en reserva), el término integral debe actualizarse continuamente el valor de la diferencia entre la señal
de entrada, puesta manualmente, y la salida del término proporcional, según la ecuación:

i (t ) = m (t ) - Ke (t )
23

Fig. 3.1.- Otras estructuras del controlador PID.

Un controlador que contiene término integral es inestable y puede dar lugar a problemas si se
satura la salida del controlador. Al seguir aumentando el error del sistema, el término integrador sigue
creciendo y el retorno a valores normales llevará mucho más tiempo del necesario y hará falta gran
cantidad de error de signo contrario para contrarrestar la integración del error producida antes, dando
esto lugar cuando menos a una oscilación. Esto no ocurre (como pasaba con la transferencia sin salto)
si el algoritmo está en forma incremental, pero sí cuando está en forma normal (de valores de las
variables, no de variaciones). La forma de corregirlo suele ser limitar los valores que puede tomar el
término integral, al igual que ocurre con la salida. Otras formas alternativas, con el mismo efecto, se
basan en utilizar una interrogación condicional, que sólo se tiene en cuenta si el error es pequeño, o,
también, recalcular el término integral, de forma que, si la salida del controlador rebasa uno de sus
límites, el término integral se reduce para que dicha salida tome exactamente el valor del límite
sobrepasado.
24

CONFIGURACIONES ESPECIALES DE CONTROLADORES

En los procesos hay determinadas situaciones en las que es preciso controlar más de una variable.
Entonces, los controladores, deben estar relacionados por no ser independientes los lazos. Vamos a
dedicar este apartado a describir los casos más importantes en que esto ocurre.

Control en cascada

Se trata de una configuración de control relativamente poco utilizada pero que puede aportar unas
mejoras sustanciales sin coste adicional, debido a que la nueva variable, que es preciso medir,
normalmente lo está siendo, ya que los reguladores comerciales actuales suelen incluir un segundo
controlador capaz de funcionar en cascada. El control en cascada se emplea cuando una propiedad de la
variable de entrada al proceso (que no es sobre la que el controlador actúa), trabaja como perturbación
de la salida. Veámoslo claramente con un ejemplo: Supongamos que tenemos un tanque de reacción con
producción de calor y hay que controlar su temperatura. Lo realizamos haciendo circular agua fría por
una camisa que envuelve al tanque. La regulación se hace midiendo la temperatura del baño y
controlando el caudal del agua fría de entrada a la camisa, tal y como aparece en la Fig. 3.2.

Es evidente que la temperatura del agua fría de entrada perturbará la temperatura del tanque, que
deseamos controlar, ya que, para la misma necesidad de enfriamiento, y, por lo tanto, el mismo caudal
de agua fría, esta enfriará más o menos según su propia temperatura. El control en cascada elimina estas
perturbaciones. Para eso utiliza dos controladores seguidos, de forma que la salida del controlador
primario sirve de referencia para el secundario y cada controlador responde de un bucle de

Fig. 3.2. - Control de la temperatura de un baño.

control: el secundario, del bucle más interno, que debe tener una dinámica más rápida, y el primario, del
25

bucle más externo, que es el principal y que posee una dinámica más lenta. El proceso queda también
descompuesto en dos bloques unidos en serie representando los dos efectos que tienen lugar. En la Fig.
3.3 puede verse un diagrama de bloques de una configuración en cascada y en la 3.4 cómo se traduciría
ésta para el ejemplo de la Fig. 3.2

Fig. 3.3.- Esquema de una estructura en cascada

Para el ajuste de los controladores se procede del interior al exterior. Se analiza el bucle interno
sólo y se ajusta el controlador interno, que normalmente es suficiente con un Proporcional, o un PI si la
ganancia es pequeña, ya que los errores estacionarios los corregirá el controlador primario. Se reduce
entonces el bucle interno, con el controlador secundario, a un solo bloque y se analiza el bucle exterior
ajustando de forma independiente el controlador primario.

Fig. 3.4. - Control en cascada para la temperatura de un baño.

Control anticipativo
26

Se conoce también con el nombre de control feedforward o de prealimentación y su objetivo es


proteger al sistema contra cambios en la carga. Se utiliza en dos situaciones en las que el control por
realimentación no es suficientemente eficaz: cuando aparecen perturbaciones de gran magnitud o cuando
el proceso contiene retardos significativos. Se basa en medir la perturbación antes de que actúe sobre el
proceso y determinar la entrada adecuada para compensar las alteraciones que va a producir. Necesita,
por tanto, saber el tipo de perturbación, tener un conocimiento cuantitativo del comportamiento de la
perturbación y del proceso y ser capaz de medir esta perturbación. El controlador se diseña de forma
que se anule la influencia de la perturbación sobre la salida.

El controlador anticipativo sólo es válido para ese tipo de perturbación, de forma que no actúa
sobre otra cualquiera que se pueda producir. Además, se trata de un control en bucle abierto, lo que hace
que, en la práctica, no se emplee solo, sino junto a un control con realimentación. En este caso, el
controlador de realimentación elimina las imprecisiones del controlador anticipativo y los efectos de
otras perturbaciones.

Control de proporción

También llamado control ratio o fraccional, se emplea en procesos de mezcla de dos o más
componentes donde se busca de una composición uniforme. La técnica normal es utilizar un controlador
de caudal para uno de los componentes y con un controlador ratio, controlar el caudal del segundo
componente. El controlador ratio tiene como referencia la salida del otro proceso (el caudal del primer
componente). Por esta estructura puede confundirse a veces con el control en cascada, aunque su
filosofía es completamente diferente. Otra solución aceptable es prescindir del primer controlador, y
utilizar la medida de caudal del primer componente solamente y el controlador ratio, que hará que el
caudal del segundo sea proporcional al medido del primer componente.

Control override

Consiste en controlar dos o más variables de un proceso con un solo controlador actuando sobre
una entrada única. Se trata, en la práctica, de dos controladores diferentes, dos filosofías de control,
elegibles según cierto criterio para saber cuál de las dos se debe emplear en cada momento para
determinar la actuación sobre el sistema.
27

TEORIAS AVANZADAS

Como ya hemos indicado, la Teoría de Control Automático ha seguido desarrollándose y


obteniendo resultados que, con la entrada de los microprocesadores y computadores en el Control de
Procesos, han empezado, en la década de los 70, a ser ensayados en las instalaciones con mayor o menor
éxito pero, sin duda, dando lugar a mejoras sustanciales en los procesos y produciendo ahorros y
beneficios considerables. Vamos a intentar presentar, de forma sucinta, cuáles son las líneas teóricas
más importantes y su utilización práctica industrial.

Control discreto

Las técnicas presentadas hasta ahora parten del estudio del modelo de un proceso descrito
mediante ecuaciones diferenciales, considerado por tanto, como continuo, y controlado por un
dispositivo de funcionamiento continuo. Esto era correcto cuando se empleaban controladores
neumáticos o electrónicos de tipo analógico, pero no es así cuando son digitales. En este caso, no se
consideran magnitudes continuas, sino que se miden sólo en instantes discretos de tiempo y solamente
se obtienen sus valores en esos instantes.

Entonces, aunque el proceso sea continuo, el sistema de control lo ve representado por una
ecuación en diferencias. Para realizar el estudio de los sistemas de control para procesos en estas
condiciones, se ha desarrollado en una teoría paralela a la de los sistemas de control lineales, teoría en
la que se han ido obteniendo resultados totalmente similares. Se conoce como sistemas discretos o
muestreados de control y esta teoría parte de la definición de una transformación, la transformada Z
(relacionada con la transformada de Laplace para sistemas continuos) en la que se mantienen
prácticamente idénticas (con pequeñas variaciones debidas al muestreo), las propiedades y
características que los sistemas continuos tienen en el campo transformado de Laplace. Existen varios
criterios de estabilidad y técnicas para su estudio, representación de procesos por bloques, función de
transferencia discreta, técnicas de modelado, controladores PID y de otros tipos, con sus técnicas de
ajuste y la generalización de todas las teorías de control, algunas de las cuales se van a comentar. Tiene
además, una extraordinaria aplicación en el filtrado de señal. Se establecen ecuaciones para
controladores, filtros y otros dispositivos de control y se expresan como ecuaciones diferenciales. Estas
ecuaciones se traducen directamente de forma casi literal, en un algoritmo normalmente muy sencillo,
de inmediata ejecución mediante un programa y con muy pocas exigencias de memoria. Por lo tanto
son especialmente adaptables para su ejecución mediante un microprocesador. El control de sistemas
muestreados o discretos suele conocerse también como control digital al estar especialmente
adaptado para su realización mediante computadores digitales. Sin embargo, no se trata exactamente de
un control digital, ya que los sistemas se consideran discretos en el tiempo, pero continuos en los
valores de la señal, mientras que el control digital, o su teoría, debería tratar sistemas discretos en el
tiempo (muestreados) y de señal también discreta, digitalizada. En la implantación del control
muestreado en dispositivos digitales se suele analizar el efecto de la cuantificación o digitalización de
las señales, pero no existe una teoría de control que lo considere en sí misma.
28

Control multivariable

Los procesos considerados, normalmente, trataban de la relación entre una entrada y una salida y.
como dijimos, se emparejaban entradas y salidas cuando había varias o, si el número de entradas no
coincidía con el de salidas, se recurría a estructuras como el control override. Sin embargo, hay muchas
situaciones en las que este control no es satisfactorio porque cada entrada del proceso actúa de forma
significativa sobre varias de las variables de salida, aunque una, que es a la que normalmente va
emparejada, responde más que las otras. Es la situación conocida como interacción entre los diferentes
bucles y obliga a intentar abordar el estudio y control del proceso como conjunto. La teoría de control
que estudia los sistemas de varias entradas y salidas se conoce como control multivariable y tiene un
desarrollo paralelo al de los sistemas monovariables, pudiendo plantearse tanto en forma continua, como
discreta. Este desarrollo se hace considerando que lo que hasta ahora eran magnitudes escalares (entrada
y salida) ahora son vectoriales, englobando en el vector entrada todas las entradas y en el vector salida,
todas las salidas. La relación entre ambas ya no será una función de transferencia, sino una matriz de
funciones de transferencia.

Se ha realizado la extensión teórica de los resultados monovariables a los multivariables, tanto en


el dominio de la frecuencia, como en la formulación en el espacio de estados, pero especialmente en
esta última. Sin embargo, la interpretación práctica de estas generalizaciones no es tan inmediata, sobre
todo en el dominio de la frecuencia, donde la extensión de los criterios de estabilidad ha sido laboriosa
al igual que ha ocurrido con el diseño de controladores multivariables. La técnica más extendida se basa
en la asignación de polos mediante una realimentación de la salida o del estado. Un enfoque, que tuvo
bastante aceptación en su momento, para el control de sistemas multivariables fue el conocido como
desacoplo cuando se aborda en el espacio de estados y como control no interactivo o sin interacciones,
cuando se hace en el dominio de la frecuencia. Consiste en diseñar una realimentación tal, que el
conjunto de proceso y realimentación se comporte como un conjunto de bucles de control independientes
y, por lo tanto, desacoplados. Las técnicas de control por desacoplo incluyen, además, la posibilidad de,
a la vez que se realiza dicho desacoplo, introducir, en cada uno de los bucles independientes resultantes,
los polos apropiados para que se comporte con la dinámica que se considere necesaria y realizar de esa
forma su control. En todo caso, después del desacoplo se puede realizar el control de cada bucle de
forma independiente.

Respecto a esta técnica del desacoplo hay que decir que exige que los procesos sean lineales y,
además, un conocimiento total de su comportamiento, disponiendo de su modelo exacto. No ocurre así
con la mayoría de los procesos químicos, lo que ha hecho que en este campo no sea una técnica
excesivamente utilizada.

Control óptimo

Siempre que se aborda un problema se pretende encontrar la solución óptima y esto ocurre también
constantemente en el control. En general, se entiende por control óptimo al empleo de las técnicas
29

matemáticas de optimización para encontrar la mejor solución entre un conjunto de soluciones posibles
del problema. Se emplean las técnicas de optimización para elegir los parámetros de un controlador,
determinar los parámetros de un modelo de un proceso, realizar una distribución de recursos de control
o repartir el esfuerzo de control entre varios controladores, determinar la estructura de 1a ley de control
a emplear, o los valores de las entradas para alcanzar el estado final deseado en unas determinadas
condiciones (tiempo mínimo, mínimo error, mínimo esfuerzo de control, mínimo consumo de energía,
etc.). Esto último es lo que se conoce como obtención de la trayectoria óptima y es lo que se entiende
por control óptimo en sentido más estricto. Es distinto el empleo de las técnicas de optimización para
una optimización de parámetros que el problema del control óptimo: el de encontrar la estrategia óptima
de control para un determinado sistema según una función de coste dada. La solución dará una función
que optimice el comportamiento del proceso respecto al criterio, función que, si depende de la salida del
proceso, será de realimentación, pero que puede no depender de ella.

Un problema de control óptimo puede plantearse de la siguiente forma

1.   Se conoce el modelo matemático del proceso.

2. Se conoce su estado o situación inicial y se determina el estado que se quiere alcanzar, fijándose
o no el instante en que ha de alcanzarse.

3. Se define un índice o criterio de coste, generalmente como la integral de una función de coste a
lo largo del tiempo de duración de la evolución del proceso.

4. Se establecen, si las hubiera, las restricciones oportunas, tanto sobre el estado del proceso, como
sobre el control.

5. El problema del control óptimo es buscar el conjunto de valores que debe tomar la entrada del
proceso (y si se ha dejado libre, también su duración) que minimicen el criterio establecido y
lleven el proceso desde el estado inicial al estado final u objetivo fijado.

Es evidente que la solución obtenida lo es, solamente respecto al criterio elegido y, si éste
cambiara, la solución cambiaría también. La técnica matemática básica para la resolución del control
óptimo se basa en la anulación de la primera derivada con los multiplicadores de Lagrange. Sin embargo,
es muy difícil su aplicación práctica en el control óptimo, habiéndose hecho posible gracias a los
resultados de la programación dinámica y al principio del máximo de Pontryagin. El principio de opti-
málidad de la programación dinámica establece que si una trayectoria se descompone en una sucesión
de tramos, para que dicha trayectoria sea óptima ha de serlo también a partir de cualquier punto de la
misma, independientemente de que lo sean los tramos anteriores. Por su parte el principio del máximo
establece que la condición necesaria para que una trayectoria sea óptima es que el hamiltoniano del
sistema sea máximo para dicha trayectoria y el valor de ese máximo sea, precisamente, cero. Una
aplicación típica es el control bang-gang o control de dos posiciones de conmutación óptima.
30

Identificación

La identificación aparece para completar las técnicas de obtención de modelos. Hemos indicado
que existen dos grupos de técnicas de modelado: las de conocimiento y las de representación. La
identificación es el conjunto de técnicas empleadas para realizar un modelado de representación.
Pueden, sin embargo, emplearse también para apoyar el modelo de conocimiento con la estimación de
parámetros del modelo obtenido, si algunos de éstos no son conocidos o son variables según las
condiciones de trabajo.

El principio básico de la identificación consiste en suponer un modelo, tomar datos de la entrada


y de la salida del proceso y comparar dicha salida con la del modelo para la misma entrada, variando
después los parámetros del modelo, de forma que la diferencia entre ambas salidas sea mínima. Como
las diferencias son función estática de los parámetros del modelo, el problema de estimación se reduce
en este caso al de una optimización vectorial. Cuando las señales del proceso están contaminadas por
ruido, hay que recurrir a métodos estadísticos de identificación. Existen muchos de estos métodos según
las condiciones en que se empleen, el campo de aplicación y la actualización de la información. Los más
característicos son los de mínimos cuadrados y regresión, máxima verosimilitud, predicción de error
mínimo y bayesiano, pudiendo darse formulaciones recursivas y no recursivas donde las primeras están
más adaptadas al tratamiento en tiempo real.

Las etapas principales de un proceso de identificación son:

1. Selección de la clase general del modelo.

Aquí juegan un papel importante la experiencia y el conocimiento previo del proceso (la parte
de modelado de conocimiento) y la finalidad de su empleo.
En muchos casos, es preferible un modelo sencillo, que describa bien la dinámica del proceso en
una zona de trabajo, que un modelo más completo, pero más difícil de manejar.

2.   Obtención de un conjunto de datos experimentales de la entrada y la salida.

Hay que tener en cuenta: el equipo de medida y la forma de almacenar los datos, el período de
muestreo, las características de frecuencia de las señales, el número de datos a registrar, el
tratamiento previo de los datos obtenidos y la señal de entrada.

3. Seleccionar el modelo concreto y determinar el orden del numerador y denominador (suele


tratarse de un cociente de polinomios).

4. Estimación de los parámetros del modelo concreto según la técnica más apropiada.
31

5 Comprobar la validez del modelo. Si el resultado es favorable, ya se puede emplear; en caso


contrario, hay que seleccionar otro modelo concreto y repartir la operación.
Cuando no se conoce bien el orden del modelo, se realiza este ciclo varias veces, aumentando
el orden hasta que un aumento de orden no se traduzca en una mejora sustancial en el modelo.

Control adaptativo

El término adaptativo indica que el sistema tiene capacidad de acomodación frente a las
variaciones que puedan producirse. En el control de procesos los controladores están ajustados para
trabajar en unas determinadas condiciones, pero éstas pueden variar, bien porque lo hagan las
condiciones ambientales o las de funcionamiento del proceso, bien porque las características de
funcionamiento del proceso (los parámetros del modelo) cambien de repente o sean continuamente
variables. Entonces no es suficiente un controlador convencional; hace falta uno que él solo se ajuste
para acomodarse a estas variaciones. En la teoría de control hay dos grandes filosofías de control
adaptativo: las de modelo de referencia en las que el criterio de funcionamiento del sistema global
(proceso y control) es un modelo previamente fijado, y las de autosintonizado, en las que el criterio es
una función que hace intervenir la respuesta del proceso.

Como acabamos de indicar, el control adaptativo exige, en primer lugar, disponer de un índice de
comportamiento para medir la bondad del funcionamiento del conjunto proceso-controlador. Este índice
debe ser un buen indicador: selectivo frente a los comportamientos no óptimos y capaz de ofrecer un
máximo global claro, así como ser aplicable en la práctica.

El control adaptativo incluye, de alguna forma, una identificación de los parámetros del proceso,
aunque no ha de hacerse de forma explícita, y está íntimamente relacionada con el índice de
comportamiento. Una etapa posterior del control adaptativo consiste en la toma de decisión respecto al
funcionamiento, que se hace a partir del índice de comportamiento obtenido y su comparación con el
óptimo y la identificación realizada del proceso, determinando cuál ha de ser la variación de los
parámetros del controlador. Finalmente, hay que considerar la modificación de los parámetros del
controlador, a partir de la etapa anterior; suele ir unida a ella. Pero también es posible realizar la
adaptación mediante una modificación de la señal de entrada al proceso. En la Fig. 3-5 se presentan las
dos estructuras de control adaptativo: autosintonizado y con modelo de referencia.

Para terminar, se trata de introducir un problema con el que se enfrenta hoy día la Teoría de control
automático y que tiene aplicación en el control de procesos: el control de sistemas de gran dimensión.
Muchos procesos que se desean controlar de forma global, manejan gran cantidad de variables de entrada
y salida, por lo que es muy difícil estudiar su control y también realizarlo. El primer conjunto de técnicas
se orienta a la simplificación y reducción del orden de los modelos, y permiten obtener otros de
dimensiones mucho más reducidas, pero con un comportamiento muy similar, porque se han conservado
sólo aquellos modos de funcionamiento que más influyen sobre el comportamiento global mediante el
apropiado criterio de selección. El segundo conjunto de técnicas se
32

Fig. 3.5.- Dos estructuras de control adaptativo: a) autosintonizado y b) con modelo de referencia

orienta al control de estos procesos. De todas ellas destacaremos solamente dos: el control jerarquizado,
que descompone el sistema de control en niveles entre los que se reparten los objetivos y la elaboración
de los controles de tipo local y global, y el control distribuido que reparte las tareas de control de forma
horizontal entre las distintas partes del proceso global.

BIBLIOGRAFIA

1. Dormido, S, y Prada de, C.: "Fundamentos y técnicas básicas en el control de procesospor ordenador".
Notas del IV Curso "Automática en la Industria", Peñíscola, mayo 1984, ed. AEIA.

2. Smith, C.L., "Digital computer pro cess control", Intex Educational Publishers, 1972.

3. Caseil, D.A., "Digital control using microprocessors", Reston (Prentice-Hail), 1983.

4. Ogata, K., "Ingeniería de control moderna", Prentice-Halí International, 1974.

5.  Takahashi, Y., Rabins, M.J., Auslander, D.M., "Control and dynamic systems", Addjson-Wesley
Publis. Co., 1970.
33

Capítulo IV
Control de procesos mediante computador
INTRODUCCION
Desde que se dispone de computadores se intenta utilizarlos para el control en general y,
especialmente, para el de procesos. Así, hoy día, cualquier fábrica está equipada con un sistema de
control de procesos basado en el computador, cuya importancia es extraordinaria, ya que, aunque supone
menos del 5 % de la inversión total, es crucial para la utilización y el máximo aprovechamiento del resto
de los componentes. Además, su concepción influye no sólo sobre el diseño de la fábrica, sino también
sobre la forma de actuar de los responsables de su funcionamiento.

El primer computador utilizado para control, fijaba las referencias de un piloto automático y se
puso en marcha en 1954. Una empresa que había competido sin éxito en este producto, modificó su
computador e intentó penetrar en el mercado del control de procesos con computador. De esta forma,
los computadores de control de procesos fueron, en un principio, el resultado de un intento de los
fabricantes de computadores de ampliar su mercado o de vender equipos no aceptados por las Fuerzas
Armadas. En 1958 se instaló el primer computador como supervisor de fábrica, y en marzo de 1959 se
empleó un computador para control en bucle cerrado, aunque a través de controladores analógicos. En
1 962 se montaron los primeros computadores para el control digital directo de instalaciones de proceso,
uno en el Reino Unido y otro en Estados Unidos. Estos éxitos impulsaron el desarrollo de los primeros
minicomputadores. Sus características de entonces "capacidad y tipo de memoria, programación en
lenguaje máquina, falta de experiencia y baja fiabilidad" hicieron tender a la utilización de grandes
computadores para realizar todas las funciones. Por ello, dados su complejidad y elevado coste,
disminuyó el número de instalaciones, utilizándose sólo minicomputadores para el control de aspectos
parciales de procesos. La aparición del microprocesador en 1971 cambió radicalmente el panorama con
una coincidencia de esfuerzos para el empleo para el control digital, tanto desde cada bucle de control
"ascendente" por integraciones sucesivas, como en sentido inverso desde la gestión y organización
"descendente".

TIPOS DE CONTROL

Los niveles en que se descompone un control con computador, los tipos de control que pueden
realizarse y las funciones encomendadas a un computador, son tres aspectos profundamente
interrelacionados. Como en la introducción ya hemos presentado la evolución del control con
computador, que, necesariamente, conduce a los diferentes tipos, vamos a comenzar por describirlos en
lo posible.

Computador de vigilancia

Es la forma más elemental de uso del computador. No es la mera adquisición y almacenamiento


34

de datos, sino que incluye su manipulación, elaboración de informes de su evolución después de tratarlos
y su comparación con los umbrales fijados, generando las correspondientes señales de alarma en caso
de que se sobrepasen éstos. No interviene en el bucle del que es independiente.

Control de supervisión básico

Este tipo de supervisión supone ya una intervención en el bucle de control. A partir de las medidas
que realiza de las variables y de las órdenes superiores, elabora las consignas de los controladores, que
pueden seguir siendo de tipo analógico.

Control digital directo

En este tipo de control el computador se hace cargo directamente de la adquisición de los datos,
elaboración de las órdenes de control y de su envío a los actuadores. En este caso, el computador es el
corazón del bucle de control, ejecutando los algoritmos y estrategias establecidos. Las estrategias ya no
están restringidas al PID, que llevaba a cabo el controlador analógico, sino que se puede disponer de
otros muchos algoritmos e incluir toma de decisiones lógicas y correcciones complejas. Hay que
destacar dos tipos de componentes que aparecen en el bucle de control por exigencia de la incorporación
del computador dentro del lazo: los convertidores y los multiplexores. Los primeros transforman las
señales analógicas de los sensores en digitales para su manejo por el computador y las digitales de éste,
en analógicas para el mando de motores y válvulas. Los multiplexores, de entrada y de salida, permiten
al computador repartir su potencia y su tiempo entre varios bucles de control, conectando
secuencialmente el computador a los diferentes bucles a su cargo. En la Fig. 4-1 puede verse esta
estructura aplicada a un lazo de control.

CONFIGURACIONES

Así como en el apartado anterior se analizaba el comportamiento del computador respecto a la


tarea de control, aquí nos interesa la forma de operar del computador respecto a las instalaciones de la
factoría. Las soluciones adoptadas son dos, básicamente distintas, y se presenta cada una como la mejor
forma de aprovechar los equipos y tecnología disponibles en el momento de la aparición de cada una de
ellas.

Control centralizado

La Fig. 4.1 representa, en esquema, lo que puede ser un control centralizado si el computador, con
todos los componentes auxiliares (convertidores, multiplexores, consola, indicadores), se encuentran
situados no junto al proceso, sino en la sala central de control. En ella se concentra toda la
instrumentación de control: controladores analógicos y/o digitales y computador supervisor, estando
este núcleo de control comunicado individualmente con cada sensor y actuador situados en el campo.
35

En algunos casos, el sistema de control digital central dispone junto a él de un controlador


analógico de reserva por razones de seguridad. Este tipo de configuración aparece por dos razones:

l) Porque se quiere realizar un control conjunto de toda la factoría, puesto que cada lazo del
proceso depende de los demás y es preciso que el operador tenga una visión global y la
posibilidad de actuar sobre cada uno de ellos teniendo presente los otros.

Fig. 4.1.- Estructura de un control digital directo.

2) Porque la tecnología de computadores disponible en los años 60 obligó a utilizar un gran


computador para todas las funciones del proceso y a situarlo en un local acondicionado en
temperatura y humedad.

Este tipo de instalaciones, aunque satisfactorias porque resuelven el control de forma correcta,
presentan serios inconvenientes, siendo el más importante el complejo y gigantesco sistema de
comunicaciones, que lleva todas las señales de la fábrica a la sala de control y devuelve a aquélla todas
las señales de control. Es un sistema muy caro que exige mucha atención y experiencia para su diseño e
instalación, tanto para .disminuir su coste, como para evitar los problemas de ruidos eléctricos o errores
en la transmisión que pueden provocar el fallo total de la fábrica.

La solución pasa por la descentralización que se acomete de forma progresiva y que culmina con
36

la configuración descentralizada, que presentaremos luego, al poder disponer de microcomputadores


instalados al pie del proceso, que se encargan de muchas de las tareas antes encomendadas al equipo
central. Ha sucedido con la inteligencia lo que ocurrió con la potencia hace muchos años en los talleres:
se pasó de un solo motor gigante (que, mediante poleas u otros tipos de transmisiones, movía todas las
máquinas), al motor individual para cada máquina o cada movimiento, en cuanto evolucionó la
tecnología de fabricación de motores. El primer paso hacia esta descentralización consistió en instalar
multiplexores en campo y concentrar en ellos las señales de sensores y actuadores, compartiendo así
varios de estos una transmisión entre el proceso y la sala de control. Otro segundo paso fue la instalación
de los controladores junto al proceso, transmitiendo entre cada controlador y la sala central solamente
la medida y la consigna, trabajando así el computador central básicamente como supervisor y
presentador de información.

Control distribuido

Consiste en repartir los recursos de cálculo y control por toda la factoría, aproximándolos todo lo
posible a los lugares en que se necesitan. Sin embargo, estos recursos no deben ser independientes y
deben pasar información al lugar de mando general del proceso que estará encargado, además, del
almacenamiento general de la información, de la supervisión y coordinación general y de la
comunicación con los centros de control de otros procesos u otras secciones de la factoría. La red de
comunicación entre los distintos recursos locales y la sala central de control es un elemento fundamental
en este tipo de configuración. Las ventajas de una instalación de este tipo son innumerables: desde la ya
indicada proximidad del control a los procesos, con lo que supone de aumento de la flexibilidad, como
el mismo aumento de la potencia del control, el incremento de la modularidad, la reducción de la
Complejidad del conjunto facilitando el diseño, la instalación, la puesta en marcha y el funcionamiento
normal, la protección de las comunicaciones y la posibilidad de adoptar medidas de redundancia y
actuaciones en caso de fallo y su reparación. Dedicaremos un apartado a esta configuración.

En una sala de control de un Sistema Distribuido de Control. Solamente hay esquemas y algunos
indicadores del proceso, y toda la información sobre éste aparece sobre las pantallas. Los teclados
sirven para pedir información o dar órdenes al proceso.

Control integral jerarquizado

El control directo o supervisor de un proceso no constituye al final más que una parte del control
por computador que puede implantarse en una factoría. El resultado es un sistema de control global de
todas las actividades de una empresa, mediante una estructura de diversos tipos de computadores,
controladores de regulación, controladores lógicos programables, minicomputadores y grandes
computadores, e, incluso, computadores personales y estaciones de trabajo inteligentes, conectados
37

todos ellos por distintos tipos de comunicaciones y organizados por niveles con una estructura
jerarquizada. En la Fig. 4-2 se presenta un esquema-cuadro de esta estructura con sus niveles y
funciones.

Fig. 4-2. - Niveles y tareas de un sistema de control de procesos integral

El nivel más bajo, de Control local, tiene como objetivo el control por realimentación. El
computador que lo realiza tiene a su cargo la adquisición de datos de los sensores y su corrección y
acondicionamiento, la comparación con los límites y generación de alarmas que se envían al nivel
superior, y, sobre todo, la determinación de la señal a enviar a los actuadores de acuerdo con los
38

resultados del algoritmo de control seleccionado por el nivel superior y de acuerdo con la consigna
fijada por éste.éste. Este computador (mini o micro) puede controlar, a la vez, varios bucles, realizar
controles en cascada o de otros tipos y suele tener encomendada la actuación en arranque y parada.

El nivel de supervisión comprueba también los valores de las variables y sus tendencias, generando
las alarmas oportunas si sobrepasan los valores fijados, y tomando las acciones correctoras necesarias
para eliminar las tendencias anómalas. Hace el papel, además, de coordinación de varios controles
directos de nivel inferior.

El tercer nivel, de coordinación de área, tiene como finalidad el control de la producción de toda
el area mediante un balance de materiales y energía que se encarga de optimizar (por lo que se le conoce
también por ese nombre). Según esto, se establecen las condiciones de operación de cada uno de los
procesos del área, que envía al correspondiente control Supervisor.

El cuarto nivel, de gestión de la factoría integra todas las áreas y planifica la producción del
conjunto, con la secuencia apropiada para las distintas secciones, organizando así la colaboración
necesaria entre ellas.

El nivel superior, finalmente, parte de una información económica: pedidos, recursos, costes y
mercado, estableciendo los planes de producción Y la política a seguir.

FUNCIONES EN UN SISTEMA DE CONTROL DE PROCESOS

Un sistema de control de procesos integral debe realizar los tres tipos de acciones siguientes sobre
el sistema (el conjunto: proceso-sistema de control) de forma automática.la):

1ª) Funcionamiento continuo de la factoría, manteniendo las condiciones fijadas, supervisión y manejo
de las condiciones de emergencia, detectando la aparición de éstas e, incluso, previéndolas y
actuando de forma apropiada;

2ª) Realización de correcciones, generación de alarmas de distintos grados e, incluso, la parada


automática, y

3ª) Cambio de las condiciones operacionales, en función del mercado, de las características de los
productos y del criterio económico correspondiente.

De estas tres acciones, las dos primeras se ejecutan entre los dos niveles inferiores de todo sistema
de control de procesos y son el objetivo de los sistemas distribuidos, quedando la tercera, que
corresponde á las tareas de los niveles superiores, para ser realizada por computadores potentes mediante
39

los paquetes de programas apropiados.

Las funciones que realiza un sistema de control de procesos en los dos niveles inferiores son:

Adquisición de datos

Las señales suministradas por los sensores rara vez pueden ser directamente utilizadas por el
sistema para el control siendo necesario someterlas a diversas transformaciones. En primer lugar, las
señales analógicas han de muestrearse y digitalizarse de manera periódica y las digitales pueden atacar
el sistema de interrupciones o ser, también, muestreadas. Posteriormente, deben someterse a un
pretratamiento que comprende la adecuación de unidades, filtrado, estimación de gradientes y utilizar
los valores obtenidos para estimar otros que no pueden medirse directamente. Pueden incluirse aquí la
compresión de datos con vistas a su almacenamiento y la agrupación de los valores y parámetros
medidos en el mismo instante, con el fin de tener reunidos todos los que definen el estado de un proceso
en cada momento. El almacenamiento de los datos también está dentro de esta función.

Control de las variables de proceso

Es el núcleo de todo el sistema. Involucra el tratamiento de la información obtenida por la


adquisición de datos y lo hace mediante un conjunto de algoritmos, unos cooperadores y otros,
mutuamente excluyentes, en cuyo caso hay que decidir cuál se va a emplear. En la base de datos
correspondiente debe disponerse de los datos y parámetros que necesita cada algoritmo para funcionar,
que pueden estar dados de antemano o ser obtenidos mediante otros programas a partir de medidas
realizadas (caso de la identificación o estimación de parámetros).

Comunicación con el operador

Esta comunicación se realiza mediante dispositivos específicos, situados normalmente en la sala


de control, que suministran, centralizadala información procedente del resto de los componentes del
sistema distribuido, después de haberla tratado convenientemente. El sistema debe ser capaz de presentar
al operador, con las salvaguardas necesarias, toda la información que pueda contener de las diferentes
bases de datos así como de forma clara, el estado de funcionamiento del proceso en ése instante' las
condiciones de alarma y las tendencias de evolución de las variables' y todo esto tanto de forma global
como con distintos niveles de detalle.

Además, el operador debe poder realizar una serie de acciones sobre el sistema, que se pueden
agrupar en las siguientes:

1. Inicialización o alteración de los valores de consigna.

2. Modificación de los parámetros de los algoritmos (constantes de los PID).


40

3. Modificación de los algoritmos (tanto de adquisición como de control) adición otros nuevos y
selección del que se quiere utilizar en cada momento.

4.Cambio de las supervisiones de control.

Supervisión
Ya que el sistema está constituido por un conjunto de procesadores organizados con una estructura
jerarquizada, las funciones más rápidas (y más críticas en el tiempo) se encomiendan a los niveles más
bajos, mientras que las más complejas (pero menos críticas en el tiempo), quedan en los niveles
superiores. Como hemos indicado, de estas últimas se encarga un computador potente que se conecta al
sistema distribuido. La estructura a estos niveles se concibe y programa de forma específica para cada
caso empleando lenguajes de alto nivel. Algunas veces, este computador de control supervisor se
encarga también de la comunicación con el operador.

ELEMENTOS DE UN CONTROL DISTRIBUIDO

Como hemos presentado antes, un control distribuido supone una forma o filosofía de abordar la
realización de estas funciones. Puesto que manejan instalaciones de coste muy elevado, deben ofrecer
gran fiabilidad y estar preparados para seguir trabajando aún en caso de fallo. Además tanto los
diferentes recursos como las comunicaciones, deben ser capaces de admitir la máxima carga de trabajo
sin degradación en su funcionamiento. Por eso, se ha evolucionado hacia un conjunto de productos tipo
normalizados, que se conocen como módulos y que pueden interconectarse de muy diversas formas para
ajustarse a las necesidades de los procesos de cualquier tamaño. Cada módulo se presenta en una tarjeta
de circuito impreso y para comunicarse entre ellos utilizan protocolos específicos o buses comerciales,
mientras que, entre conjuntos de módulos empleados en procesos distintos, se emplean protocolos
comerciales normalizados.

Las funciones que ha de realizar un sistema de control están asociadas con uno o varios módulos.
Los módulos que realizan una función (o varias, si éstas van unidas) como es el caso de la adquisición
de datos y control de variables, se agrupan en unidades físicas denominadas nodos. Estos nodos están
unidos entre sí y con el computador supervisor mediante un sistema de comunicaciones basado
normalmente en un cable coaxial capaz de transmitir información a 2 MBPS (Megabits/s) a una distancia
hasta de 3 Km, tipo red local.

En el futuro, este cable será sustituido por una fibra óptica. Este sistema de comunicación se
conoce como Data highway. En la Fig. 4.3.- se presenta un esquema de un sistema de control de procesos
distribuido con tres nodos con diferentes funciones, unidos por líneas de comunicación (Data highway)
normales y de reserva (1 A y 2A), cada una con su paralela de emergencia (lB y 2B).
41

Fig. 4.3. - Estructura física de un sistema distribuido.

En la Fig. 4.4.- se presenta la estructura típica de un nodo de adquisición de datos y control. Vemos
que está formado por un conjunto de módulos que es completamente reconfigurable según las
necesidades de cada punto de la instalación, comunicándose los módulos entre si por un bus local,
mientras que el nodo se comunica con el resto de los no-dos por la línea de comunicaciones redundante,
42

a la que accede por módulos de comunicación. La Fig. 4.5 muestra la estructura de un módulo de
entradas analógicas.

Fig. 4.4.- Estructura de un nodo de adquisición de datos y control.

F¡g. 4.5. - Módulo de entradas analógicas


43

Además de los convertidores AID y la interfaz para el bus local del nodo, incluye un
microprocesador y una memoria RAM de datos donde se almacenan las medidas, que, cuando son
pedidas por el controlador, se le envían a través del bus local, generalmente de tipo paralelo, para
permitir una rápida transmisión.

La clave de los nodos del sistema de control es su flexibilidad para adaptarse a cada aplicación, su
manejo de las redundancias y la capacidad para recuperación de errores, reconfigurándose en caso de
fallo. Esta redundancia, que se da en la comunicación, puede extenderse a cualquiera de los módulos
cuando sea necesario, consiguiendo una fiabilidad máxima. Por otra parte, al incrementarse la capacidad
de las tarjetas de E/S con la inclusión de microprocesadores y memoria de datos, puede reducirse el
coste del cableado a los sensores, sustituyendo los cables dedicados para cada sensor por un elemento
emisor/receptor trabajando con estaciones remotas de medida con su propio microprocesador,
conectadas mediante una línea digital serie, que, además de reducir el coste, reduce también la
posibilidad de perturbaciones exteriores sobre las señales. La comunicación del nodo con la línea de
comunicación del sistema se hace a través de un módulo de comunicación, redundante, encargado de
todo el proceso de envío y recepción de mensajes, y que lleva a cabo la introducción de formatos,
elaboración de protocolos y respuesta a ellos, detección de errores de transmisión, etcétera, todo según
el modelo de comunicación adoptado.

Otros elementos de un sistema distribuido, además de los nodos con toda su flexibilidad y otros
módulos que pueden integrarlos (y aparte de la línea de comunicación de la que nos ocuparemos luego),
son la estación de operador y el computador central, con sus funciones supervisoras. De ambos hemos
hablado ya. Digamos, nada más, respecto a la estación del operador, que es un módulo especial
integrable con otros para formar un nodo. Este módulo consiste en una o varias pantallas (normalmente
en color), teclados especializados de tipo funcional, uno o varios procesadores y una memoria local
secundaria. En ella se almacena una copia, actualizada continuamente, de la base de datos del proceso
que se puede encontrar distribuida en los nodos, para permitir su presentación, modificación, elaboración
de datos estadísticos y su empleó en la etapa de arranque del proceso. Esta estructura del puesto del
operador permite al sistema operar sin necesidad de un computador supervisor.

En un control distribuido el éxito del control del sistema como tal, reside en su sistema de
comunicaciones. Debe ser capaz de soportar configuraciones muy diferentes, una base de datos
distribuida entre los nodos y garantizar las prestaciones adecuadas, incluso en los casos de máxima
sobrecarga. Aunque la garantía absoluta no existe, se han desarrollado organizaciones del sistema que
permiten trabajar en las peores condiciones. Por las variedades existentes en los nodos, el sistema de
comunicación debe poseer un control distribuido de sí mismo, de forma que no exista un control único
y fijo de la comunicación y los mensajes no deben tener formato fijo. La estructura en estos casos de
envío de mensaje es:
[cabecera (fuente, destino, control), cuerpo del mensale (longitud variable), comprobación]

donde la comprobación consiste en un código de redundancia, normalmente cíclico. La comunicación


entre dos estaciones de una red cualquiera ha de estar sometida a unas reglas que se conocen como
44

protocolo. De los 7 niveles de protocolo existentes en la norma ISO, solamente se han solido aplicar las
normas existentes para los dos inferiores : el físico y el de conexión, quedando los otros a cargo de la
Programación específica y reduciéndose así el tiempo de comunicación.

Otro aspecto a considerar es la arquitectura de comunicación. Se agrupa en dos grandes bloques,


que se pueden ver en la Fig 4.6.- comprende aquellas soluciones en las que cada par de usuarios dispone
para su comunicación de un canal privado. Si solamente uno de los usuarios puede comunicarse con
todos, tenemos la estructura de estrella (a); si cada uno puede comunicarse con todos sus inferiores , la
estructura es de árbol (b); y si todos se comunican entre sí, se trata de una estructura completa (c) En
los del segundo bloque, de canales de emisión hay un canal único compartido por todos, por el que se
pueden mandar mensajes globales o específico. . Si este canal es abierto, se denomina bus (d), pero sí
es cerrado, se trata de un anillo (e)

Fig. 4-6. - Arquitecturas de comunicación.

Mientras que en la comunicación punto a punto nadie puede escuchar un mensaje que no vaya
dirigido a él, cuando se hace por canales de emisión, hay que indicar en el mensaje quién tiene acceso a
él; esto supone que cualquier protocolo debe incluir métodos de acceso al canal de emisión que
garanticen un emisor único y, en caso contrario, una acción de recuperación que coordine el uso de la
capacidad de transmisión de todos los nodos en cada instante y que depende de la arquitectura del canal.
45

Entre los sistemas comerciales, los hay basados en bus y en anillo. El módulo de interfaz al canal
de cada nodo tiene su buffer de mensajes de paso y otro para los propios en cola de espera, para ser
enviados. Un mensaje que entra en el anillo desde el nodo originador, pasa al siguiente y va de nodo a
nodo hasta que llega al destinatario, que lo devuelve siguiendo el anillo con un código de aceptación. El
mensaje sigue hasta que vuelve a llegar al originador, que, cuando lo recibe con la aceptación, lo
destruye, así como la copia de seguridad que guardaba. Se considera que el retardo de un mensaje a
través del anillo, cuando hay sobrecarga, no debe pasar de los 15 ms., y que, por su estructura, pueden
procesarse 700 mensajes/s de una longitud de 90 bytes con un canal a 500 kHz. Las técnicas de acceso
más utilizadas son las de acceso controlado. Para eso se emplea el paso de señal que sólo permite un
nodo activo tanto en el bus (token bus) como en el anillo (token ring). En el bus se envía, cada vez que
toca, un mensaje con un destino y se pasa la señal a otro nodo para que proceda de la misma forma. En
el anillo la interfaz está activa sobre los mensajes. Si es de paso de señal, puede estar a la escucha o en
emisión, desviando entonces la información que llega; si es de inserción de registros, pueden circular
varios mensajes a la vez, gracias a la introducción de un retardo entre mensajes. También se han
desarrollado técnicas de reconfiguración del sistema de comunicaciones para los casos de fallos en los
canales de comunicación.

Finalmente, una solución poco empleada por su falta de fiabilidad e la existencia de un controlador
central de comunicaciones que actúa como árbitro de acceso. Una variante es realizar agrupaciones de
nodos de fácil comunicación entre sí, comunicándose con otros grupos a través de canales globales a los
que se accede por módulos especiales tipo puerta de conexión. Se trata de un establecimiento de
jerarquías entre nodos apoyados en las comunicaciones.

BIBLIOGRAFIA

1. Dormido, S., Prada de, C.: "Fundamentos y técnicas básicas en el control de procesos por
ordenador", Notas del IV Curso "Automática en la Industria", Peñiscola, Mayo 1984, ed. AEIA.
2. Luque, E, Moreno, L.: "Microprocesadores en el control de procesos". Notas del IV Curso
"Automática en la Industria", Peníscola, Mayo, 1984, ed. AEIA.
3. Basáñez, L.: "Control de procesos por computador", Regulación y Mando XVIII,134. Diciembre
1983, pág. 93-100.

4. Schoeffler, J.D.: "Distribuited computer Systems for industrial process control"


IEEE Computer, febrero 1984. pág. 11-18.

Capítulo V
Soporte lógico para el control de procesos
46

INTRODUCCION

Es difícil exponer correctamente la problemática del soporte lógico o software para el control de
procesos por tratarse de un campo no muy bien definido, y por las condiciones de continua
transformación a que está sometido, en los equipos. El software y su ingeniería son disciplinas en
vertiginosa evolución creando continuamente nuevas herramientas que facilitan el desarrollo de
programas y constituyen potentes entornos de programación, que aumentan tremendamente la
productividad del usuario (ingeniero, analista, programador). Los sistemas de control de procesos han
experimentado en los últimos años un cambio radical en su filosofía, eliminando algunos problemas
(especialmente en lo relativo al funcionamiento, potencia y seguridad) pero creando otros nuevos, de
los que el diseño de los programas y la comunicación entre equipos sor los más importantes.

Añádase a esto el desarrollo de cada una de las técnicas y tecnologías que intervienen en el control
de procesos, sobre los que la informática está ejerciendo un extraordinario influjo y que, muchas veces,
se utilizan de forma aislada en el control, además de hacerlo integradas. Esto da una idea de lo vasta y
compleja que resulta esta problemática.

EL SOPORTE LOGICO Y LAS FUNCIONES DEL SISTEMA

Un sistema de control de procesos es, además de unos equipos, una serie de programas que le
hacen funcionar correctamente. Todos estos programas, así como los que permiten su desarrollo, pueden
entrar dentro de la consideración de software de control de procesos,

Desde el punto de vista de su función respecto a los equipos, podríamos clasificarlos en:

A) Normalizado, incluido en los equipos. Comprende todos aquellos programas que hacen funcionar los
equipos y que son independientes de la aplicación: el sistema operativo o los programas de algoritmos
de control o de tratamiento de señales.

B) Particular de la aplicación, que configura el sistema global en cada caso y permite el funcionamiento
correcto del conjunto proceso-control. Se concreta mediante los lenguajes de programación.

C) Herramientas, lenguajes y ayudas, que permiten el desarrollo de cada aplicación concreta.

Ninguno de los tres tipos (ni de los diferentes componentes que los integran) puede sustraerse a
las características que debe tener un software que trabaja en tiempo real. Quizás sea el software de
comunicaciones (o mejor, los protocolos) el más independiente de lo que es propiamente control de
procesos, porque la elaboración de las comunicaciones depende también de la estructura física instalada
47

para cada aplicación.

Tampoco conviene olvidar de cara al soporte lógico. las funciones de un sistema de control:

1) Operación de/ proceso y ejecución del control

Implica la toma de datos y su tratamiento, el análisis para la generación de alarmas, la ejecución


de los algoritmos de control, y el envío de señales a los actuadores. No debe olvidarse que han de
coexistir dos tipos de control: el continuo y el secuencial, sobre los que volveremos más adelante.

2) Interfaz con el operador

Esta interfaz no trata sólo de la presentación de resultados de cualquier tipo o con cualquier forma,
sino, también, de ejecución de órdenes del operador, modificando características del sistema, órdenes
dadas mediante un lenguaje gráfico o por teclado especial con teclas funcionales.

3) Registro, almacenamiento de datos y elaboración de informes

Todos estos datos se almacenan en memoria de masa para su posterior tratamiento.

4) Optimización del funcionamiento

No siempre se incorpora pero sirve para, mediante una visión global y los cálculos oportunos,
determinar las condiciones de funcionamiento más interesantes y las consignas y tiempos de
funcionamiento que las proporcionan.

5) Comunicación con otros computadores

Es necesaria para futuras expansiones cooperaciones efectivas con otros procesos o participación
en la jerarquía de control.

6) Detección de fallos y recuperación de errores

Es fundamental para la fiabilidad y seguridad de funcionamiento del proceso. Detecta el fallo, lo


localiza, avisa de su existencia, mantiene el funcionamiento (aunque degradado) y salva la información
que podría haberse perdido.

7) Generación de nuevas aplicaciones

A la vez que controla la instalación, el sistema debe poder emplearse para ir desarrollando nuevas
48

aplicaciones y estrategias de control, disponiendo de herramientas para adaptar los programas incluidos
en los equipos a los requisitos de cada situación.

Por el conjunto de funciones que acabamos de ver, se puede apreciar claramente que existen unas
extraordinarias diferencias entre la informática de proceso de datos y la informática industrial.

Podemos considerar que la informática y el soporte lógico de control de procesos tienen las
siguientes características:

a) Conectados directamente al proceso, los datos entran y salen directamente en tiempo real.

b) El soporte lógico está descompuesto en pequeños bloques llamados tareas que se ejecutan
periódicamente o a petición de sucesos, tanto externos como internos.

c) Las tareas han de ejecutarse rápidamente, sin pérdida de información.

d) Existe un marcador de tiempo absoluto, un reloj de tiempo externo utilizable para fijar el
comienzo de las tareas.

e) Las tareas pueden ser cooperativas y pueden simultanearse diversas tareas habiendo entre
ellas un continuo intercambio de datos en tiempo real.

f) Existe una jerarquía de tareas de forma que, cuando entran en competencia para la utilización
de un recurso, es la más importante la que accede a él.

g) Tanto el equipo físico como las tareas, deben tener una gran seguridad de funcionamiento.
Existen tareas que intervienen cuando se detectan fallos en el equipo físico o en otras tareas,
para que el funcionamiento de la instalación no se deteriore.

h) El conjunto de estas características añade nuevas dificultades a la programación. a la que se


suma el hecho de que dicha programación tenga que ejecutarse por equipos distintos
distribuidos y cooperantes.

En la Fig.5.1.- puede verse un cuadro comparativo de las características propias del software de
proceso de datos y del de control de procesos.

REQUISITOS DEL SOPORTE LOGICO

El sistema lógico de control de procesos se caracteriza por ser claramente de tiempo real. Ello
49

implica unas exigencias adicionales a las de todo paquete de software que, además, es preciso cumplir
escrupulosamente, tanto por la complejidad de los problemas, como por la del componente físico en el
que ha de funcionar, como también por las estrechas restricciones a que está sometido. De todas formas,
la exigencia del cumplimiento de determinados requisitos no es igual en todos los casos: podrá
suavizarse dependiendo del problema y del equipo.

Los requisitos de tipo general son:

1. Modularidad: La organización en módulos facilita su estructuración, comprobación, depuración


y su desarrollo por equipos de trabajo, así como el reparto de su ejecución en distintos elementos
de un sistema distribuido.

2. Legibilidad: Debido a las continuas modificaciones que puede sufrir y para que éstas se puedan hacer
rápidamente y de forma correcta sin producir errores, el soporte lógico debe ser legible. Esto se consigue,
además de por la modularidad, por una programación estructurada y una adecuada documentación,
dentro y fuera del programa.

PROCESO DE DATOS CONTROL DE PROCESOS


LOS PROGRAMAS SE EJECUTAN BAJO PETICION EXISTE UNA EJECUCION CONTINUA DE LOS
DEL TRATAMIENTO DE DATOS PROGRAMAS DE CONTROL PRINCIPALES
TIEMPOS DE EJECUCION DE PROGRAMAS LARGOS TIEMPOS DEEJECUCION DE PROGRAMAS CORTOS

EL PLAN DE TIEMPOS DE EJECUCION ES ESENCIAL LA RAPIDISIMA EJECUCION DE


DE PROGRAMAS EN RESPUESTA A SUCESOS
EXTERIORES Y LA EJECUCION A PERIODOS FIJOS
PROGRAMAS NO ES CRITICO Y ADMITE DE TIEMPO
RETRASOS.
GRAN CANTIDAD DE SALIDA IMPRESA POCA SALIDA IMPRESA
ANALISIS DE DATOS HISTORICOS PARA ANALISIS DE LOS DATOS ACTUALES PARA
INFORMAR SOBRE LO SUCEDIDO CONTROLAR

PROCESOS
SE EMPLEAN COMPUTADORES MUY GRANDES SE EMPLEAN COMPUTADORES RELATIVAMENTE
(AUNQUE HAY TENDENCIA A PEQUEÑOS, (AUNQUE SE TIENDE A EMPLEAR
CAMBIAR) OTROS MAYORES)

NO HAY CONEXION DIRECTA A UNA PLANTA CONECTADO DIRECTAMENTE A UNA PLANTA

SE ACUMULAN LOS DATOS EN FICHEROS TODOS LOS CAMBIOS EN LOS DATOS SE PROCESAN
HASTA QUE SEA POSIBLE HACER CORRER TAN PRONTO COMO SE PUEDE
EL PROGRAMA ININTERRUMPIDAMENTE

SE SUELE EMPLEAR UN SOLO COMPUTADOR LO NORMAL ES EMPLEAR SISTEMAS DOBLES O


DISTRIBUIDOS DE COMPUTADORES

Fig. 5.1.- Análisis comparativo de las características más representativas propias del
software de "proceso de datos" y del de "control de procesos".
50

3. Portabilidad: Puesto que el equipo físico se encuentra en continua evolución y las aplicaciones
suelen tender al aumento de su tamaño, porque se automatizan nuevos procesos y se integra su
control con el ya existente, el soporte lógico debe ser lo más transportable posible, de forma que
necesite las mínimas modificaciones posibles. Esto se consigue con una arquitectura adecuada del
soporte lógico y con el empleo de lenguajes y sistemas ampliamente aceptados y normalizados.

La característica específica del soporte lógico de control de procesos de ser de tiempo real, se debe
a:

- que existen tareas concurrentes habiendo entre ellas relaciones de cooperación y/o competencia
y, a
- que en los programas y en su ejecución interviene el tiempo absoluto.

Esto se traduce en los Siguientes requisitos:

- Multiprogramación. El conjunto de programas está formado por tareas que, en ciertos casos, necesitan
ejecutarse simultáneamente. Hay un aspecto dinámico en la progresión de la ejecución del soporte
lógico.

- Asignación de prioridades: Como estas tareas pueden intentar acceder a la vez a determinados
recursos, debe asignarse a cada una de ellas un índice de prioridad.

- Gestión de interrupciones: Cuando una tarea de mayor prioridad quiera acceder a un recurso ocupado
por otra de prioridad inferior debe existir la forma de interrumpir la ejecución de esta última, salvando
toda la información necesaria para que, cuando quede de nuevo libre el recurso, vuelva a acceder a él y
continúe normalmente su ejecución.

- Reloj de tiempo absoluto: La generación de tareas debe poder vincularse a tiempos absolutos, que
activen las tareas en los momentos señalados.

A estos requisitos hay que añadir aquéllos otros que no tengan que trabajar en tiempo real, pero
que vienen exigidos por el tipo de actividad a realizar en el control de procesos; como son:

- Fácil comunicación entre módulos. Al tener una organización modular, las tareas comparten datos a
la vez que los modifican e intercambian. Es preciso que esta comunicación, que se está realizando
continuamente, se lleve a cabo de forma sencilla y transparente mediante procedimientos que garanticen
la coherencia de los datos, y, también, en su vertiente temporal, con la puesta en marcha o bloqueo de
otras, sin pérdida de información y con una sincronización correcta.

- Flexibilidad en las operaciones de entrada/salida. Es una tarea fundamental del control de procesos
51

pero que agrupa operaciones muy diversas tanto en cuanto a tipo de datos, como a las operaciones en sí
mismas: manejo de interfaces, ficheros, comunicación entre procesadores o comunicación con el
operador. Por su importancia, los procesadores centrales deberán descargar el peso de muchas de estas
operaciones en procesadores secundarios, esclavos o dedicados.

- Seguridad y tratamiento de errores. La necesidad de controlar una instalación de servicio continuo en


la que, una interrupción puede ocasionar grandes pérdidas (incluso, riesgo de destrucción) exige que,
además de haberse probado exhaustivamente el soporte lógico, éste debe incluir formas de tratamiento
de errores, tanto para el caso de errores propios como para fallos del equipo físico, de forma que sea
posible subsanar los problemas que se presenten por defectos de operación o por situaciones no
previstas, sin que se alteren las funciones básicas del computador. En esta característica se incluyen: la
existencia de programas de autocomprobación del equipo físico, que detectan sus fallos y enlazan con
el tratamiento de errores recuperando la información que se pueda perder; avisan de la existencia del
fallo (su localización y características) y reconfigurar el sistema, para trabajar con la mínima
disminución de prestaciones sin emplear el dispositivo dañado. Debe posibilitarse la entrada en
funcionamiento normal sin parar el sistema, tras la reparación. También se incluye la prevención de la
sobrecarga, mediante limitadores de tiempo de trabajo por tarea, que hacen entrar al equipo de reserva
o reconfiguran también el sistema con otras soluciones alternativas. Otra protección de seguridad son
las rutinas de detección de fallo o interrupciones en la alimentación, que hacen entrar la alimentación de
reserva y recuperan y protegen toda la información que haya podido o pueda sufrir daño, y que recargan
el sistema y lo reinicializan si es preciso.

CLASES DE PROGRAMAS

Hemos hecho una primera referencia a los diferentes tipos de programas en que se puede agrupar
el soporte lógico de control de procesos. Como indicamos entonces, hay que considerar incluidos todos
aquellos programas que pueden servir de ayuda para el estudio y desarrollo del proceso y su control.
Cuando se habla de control de procesos se piensa siempre en grandes fábricas de la industria química,
en las que son fundamentales las instalaciones de control, olvidando el control de procesos e
instalaciones pequeñas de una complejidad mucho menor, pero con un auge especial al disponer de los
microcomputadores y computadores personales adaptados a ese tipo de trabajo y con un coste muy
asequible. Y lo mismo que ha ocurrido en el equipo físico, ha pasado en el lógico, donde, para estos
casos más sencillos, han proliferado los paquetes de programas potentes pero sin requisitos tan fuertes
y, por tanto, notablemente más simples. Por otra parte, también han de tenerse en cuenta otros aspectos
diferentes del nuevo funcionamiento del proceso y del equipo: en el desarrollo del sistema completo,
todas las herramientas necesarias, lo mismo que en lo referente al diseño previo al desarrollo, todo el
soporte lógico de apoyo al diseño e, incluso, algunos paquetes de programas de aplicación. Cubriendo
todas estas facetas, vamos a presentar las diferentes clases de programas que aparecen en el control de
procesos.
52

Sistema operativo en tiempo real

Durante el funcionamiento de la máquina, el sistema operativo es el encargado de ordenar la


ejecución de todos los programas y de asignar los recursos de la máquina a cada uno en cada momento.
Recibe, también, los nombres de Ejecutivo, Director (poco usado) o Monitor (más utilizado para los
microprocesadores). El sistema operativo de tiempo real, además de realizar las funciones del resto de
los sistemas operativos, debe atender a las exigencias de ejecución de los programas en el tiempo y por
la demanda de sucesos, tanto externos como internos.

Antes de exponer estas funciones veamos las nociones de los programas de una aplicación. En una
aplicación concreta el control se lleva a cabo mediante un conjunto de programas y unos datos. El
conjunto de programas está descompuesto en módulos denominados tareas, rutinas y subrutinas. Las
tareas son programas, de tamaño relativamente grande, activados por el sistema operativo de acuerdo
con las condiciones de la tarea y del proceso. Las rutinas son programas pequeños cuya misión es
responder rápidamente a los sucesos que puedan aparecer y, por eso, son activados por el sistema
operativo sin depender de otras condiciones.
Finalmente, las subrutinas son activadas por las tareas y pueden ser de tipo dedicado (para una
tarea única), común (para varias tareas, pero que no pueden utilizarla simultáneamente) o reentrante. A
cada tarea se le asigna una prioridad dentro del conjunto de acciones a llevar a cabo, y ésta determina la
preferencia que tiene frente a las demás cuando se solicita su ejecución. Respecto a los datos, pueden
ser particulares de una tarea, o comunes a varias, con posible acceso a ellos sólo para leerlos, escribirlos
o modificarlos. De todas formas, en cada momento sólo puede haber una tarea accediendo a los datos
comunes.

Una tarea puede estar en uno de los siguientes estados:

- En ejecución
- Preparada, o en espera de ejecución, pendiente de acceso a la unidad central.
- Bloqueada, a la espera de que se produzca un suceso, transcurra un tiempo o se ejecute otra tarea
con la que está sincronizada.
- Inactiva: cuando no se solicita su ejecución.

Como es obvio, una tarea sólo puede pasar a inactiva desde el estado en ejecución y sólo puede
pasar a ejecutarse desde el estado de preparada.

Las funciones fundamentales de un sistema operativo de tiempo real son las siguientes:

1) Asignar los recursos del sistema a cada tarea en cada instante

"Asignación de memoria : Cuando el sistema es muy grande y el código no reside totalmente en la


53

memoria central, dicho código se divide en dos partes. En una reside el sistema operativo, algunas rutinas
especiales y las áreas de datos comunes. La otra parte se emplea como área de carga de las rutinas no
residentes, que son llamadas para ejecutarse en cada momento. Aquí hay varias alternativas. Puede
optarse porque sólo haya una tarea cargada, por partir la memoria en segmentos de tamaño fijo y que en
cada uno haya una tarea, o por asignar de forma dinámica en tiempo real la totalidad de la memoria a
las diferentes tareas en función de sus necesidades. Cuando se activa una tarea antes de cargarla se la
sitúa en la cola de acceso a la memoria que está ordenada por prioridades.

"Asignación de la unidad central": Las tareas ya residentes en memoria compiten por el uso del
procesador central o unidad central. El sistema operativo las coloca en una cola de acceso a la unidad
central por orden de prioridad y va dándoles servicio según la prioridad de las que se estén ejecutando
y la filosofía adoptada para la interrupción de tareas Siempre que el sistema operativo tiene que
intervenir, accede a la unidad central interrumpiendo la tarea que se estaba ejecutando, y después que
de, según el sistema, devolver el control a:

-   la tarea que interrumpió,


-   la de más prioridad de la cola de espera en la que se colocó, según su prioridad, la interrumpida,
o
-   una tarea predeterminada.

Si en la cola hay varias de igual prioridad, unos sistemas operativos dan servicio por orden de
llegada, mientras que otros lo hacen en tiempo compartido.

Algunos sistemas operativos incluyen acciones especiales, tales como:

a) Activación por tiempo crítico: A determinadas tareas más exigentes, si no se han comenzado a
ejecutar en un tiempo establecido aumenta su prioridad.

b) Previsión de sobre carga: Si una tarea sobrepasa un determinado tiempo de ejecución (porque no
funcionaba bien, o porque es demasiado larga, y por ello congestiona el sistema) se la
interrumpe y se da paso a otra, pasando aquella a la cola de espera.

Siempre que se interrumpe una tarea, por tener que dar acceso el sistema operativo a otra de más
prioridad o porque se bloquee, se guardan los contenidos de los registros para asegurar que la tarea se
volverá a tomar en las mismas condiciones que antes, sin perder información.

2) Manejo de los periféricos


Las operaciones de entrada/salida se realizan a través de los dispositivos periféricos: pantallas,
impresoras, interfaces con actuadores. El sistema operativo es el encargado de ordenar que se ejecuten
estas operaciones cuando las tareas realizan peticiones en este sentido. Normalmente, el paso de
memoria central a disco y viceversa se trata de igual forma. También existen colas de espera para el
54

acceso a cada periférico. Pueden darse servicio simplemente por orden de llegada, o según la prioridad
de la propia tarea.
85
3) Manejo de sucesos externos

Cuando tienen lugar las interrupciones, el sistema operativo de tiempo real se hace con el control,
identifica la interrupción y ejecuta una rutina de tratamiento del suceso sin afectar a las tareas en
ejecución, que han de pasar a la cola de memoria y a la de la unidad central. Los sucesos exteriores se
dan a conocer al sistema mediante dispositivos físicos llamados "líneas de interrupción", "señales de
sucesos", o "palabras de estado de interrupción". Las rutinas de tratamiento de interrupciones están
asociadas internamente a los sucesos y suelen tener la prioridad máxima.

4) Organización de tiempos

Cuando una tarea tiene que ejecutarse en instantes especificados, o después de transcurrido un
determinado tiempo, o a intervalos dados, se la sitúa en una cola apropiada, en la que periódicamente se
va actualizando el tiempo. Al cumplirse el tiempo de una tarea, se activa una interrupción interna,
colocando a dicha tarea en la cola de acceso a memoria o a la unidad central para ser tratada.

5) Ordenes del sistema operativo

Son órdenes que sirven para comunicar el sistema operativo con las tareas y viceversa. Su misión
es activar, sincronizar, o suspender una tarea, asignar o cambiar la prioridad, pedir el acceso a un
periférico y obtener información del estado de las tareas o del tiempo. Todas las llamadas al sistema
operativo y todas sus órdenes se ejecutan mediante rutinas especiales de gran prioridad.

Los sistemas operativos son característicos de cada máquina, de cada computador, han sido
diseñados para él por el fabricante y son propiedad de éste. Conviene observar, de todas formas, que
esta extraordinaria complejidad en el sistema operativo se debe a la estructura centralizada del sistema
de control alrededor del computador. En los sistemas distribuidos, gracias también al bajo precio de los
procesadores y las memorias y a la potencia de los primeros, cada tarea o pequeño grupo de tareas tiene
un procesador dedicado y situado junto al lugar donde se necesita la información.

Se eliminan así los problemas de las colas de espera y del tratamiento de las interrupciones,
quedando mucho más sencillas y transfiriéndose la complejidad a la comunicación y coordinación entre
los equipos diferentes y a la gestión y protección de los datos existentes en la base de datos común, ya
esté ésta en forma centralizada o distribuida.
55

Lenguajes de control de procesos

Los lenguajes de programación para control de procesos tienen como misión, definido el problema
que el sistema quiere resolver: el control de un proceso, establecer la forma en que el equipo tiene que
actuar para realizar su función indicando todas las actividades, cálculos y otras operaciones a efectuar y
la forma de realizarlas, con todas las circunstancias que puedan darse: interdependencia, tratamiento de
señales externas, informes, etc.

Lo mismo que ha ocurrido con los sistemas operativos ha sucedido con los lenguajes, en los que
se produce una evolución desde los lenguajes clásicos de programación (Fortran, Pascal), primero hacia
los lenguajes multitarea y las extensiones para trabajo en tiempo real (aunque todavía centralizado) y,
finalmente, hacia los lenguajes de tiempo real para procesos distribuidos, encontrándose estos últimos
en una fase muy incipiente. Existen, además, lenguajes específicos orientados a problemas concretos.
Los lenguajes clásicos son de tipo secuencial en los que las acciones tienen un estricto orden en el tiempo
sin influir en el comportamiento del programa, la duración de su ejecución. Los resultados dependen,
únicamente, de los efectos de cada acción y de su orden. Características de los lenguajes avanzados son,
por una parte, el carácter estructurado del control y la abstracción funcional (procedimientos), y por otra,
la posibilidad de definir tipos de datos, simples o estructurados. Son lenguajes de esta clase: BASIC,
FORTRAN, PASCAL y COBOL. Funcionan en cualquier máquina con el compilador/intérprete
adecuado y no requieren un sistema operativo especial.

El siguiente nivel es el de los lenguajes multitarea en los que coexisten diferentes programas con
acciones no disjuntas en el tiempo. Esto conlleva unas reacciones de cooperación o de competencia entre
los programas o tareas, que deben comunicarse Y/O sincronizarse, enviándose mensajes de estados o
datos mediante variables compartidas: buzones, semáforos o citas. Son lenguajes de este tipo el
MODULA-2 y el PASCAL CONCURRENTE. Exigen un sistema operativo capaz de ejecutar esta
coordinación de tareas, y seleccionar el acceso a los recursos por prioridades. La comprobación o
validación de estos programas va más allá de la de las tareas aisladas, debiendo verificarse, también, las
relaciones entre ellas.

Los lenguajes de programación de tiempo real son aquellos capaces de definir todas las situaciones
que hemos exigido que realice un sistema operativo de tiempo real: interrupciones; sucesos internos y
externos; acciones respecto al tiempo absoluto; entradas/salidas, y, también, el tratamiento de
excepciones, para que pase a ejecutarse un procedimiento encargado de normalizar el funcionamiento
del sistema después del fallo e informar de éste.

Cuando se dispone de un buen monitor de tiempo real, el Ensamblador es una buena herramienta
para programar en tiempo real si los programas son cortos, si se dispone de programadores entrenados
y si se espera la venta de series largas. Tiene las ventajas de obtener mejores prestaciones por ocupar
menos memoria, conseguir tiempos de ejecución más cortos y acceder a todos los recursos de la máquina
de forma directa. Sus desventajas son: exigir tiempos de desarrollo altos, con elevado coste, escasa
portabilidad y seguridad; y su difícil legibilidad, que hace ardua su depuración, modificación y
mantenimiento.
56

Un segundo bloque de lenguajes de tiempo real lo constituyen las extensiones directas de los
lenguajes secuenciales y multitarea. Se citan al BASIC Tiempo real y al FORTRAN Tiempo real,
obtenidos por la incorporación a los lenguajes originales de monitores de tiempo real. Tienen la ventaja
de que parten con un conocimiento generalizado por parte de la comunidad de programadores, pero
resultan complicados para las aplicaciones de gran tamaño. Un tercer bloque lo constituyen los lenguajes
diseñados directamente para tiempo real. Se inspiran en los lenguajes de otros tipos como PASCAL
CONCURRENTE, o FORTRAN, pero no se derivan directamente de ellos. Separan completamente la
comunicación y sincronización entre los procesos informáticos y los externos, de lo que son los
tratamientos dentro de los propios procesos. Permiten una programación muy modular que facilita tanto
la escritura, puesta a punto, modificación y mantenimiento de los programas, como la validación de la
estructura global de control. Existen pocos lenguajes generales de este tipo. ya que tropiezan con el
problema de la diversidad de las aplicaciones. Esto hace que, en muchas ocasiones, se recurra a un
lenguaje formado por sublenguajes, entre los que destacan: el propio conjunto de instrucciones del
sistema operativo, el sistema de adquisición de datos y regulación, el subsistema secuencial y de
supervisión y el de comunicación con el operador. Entre los lenguajes de tiempo real recientes están el
PROCOL, inspirado en el FORTRAN, y el PEARL de tipo estructurado, más en la línea de ALGOL 68
o de PASCAL. Ambos tienen gestión de tareas, manejo de tiempos, gestión de entradas/salidas y gestión
de sucesos, siendo en el segundo más sencilla la verificación que, además, permite la definición de tipos
abstractos de datos y el tratamiento explícito de excepciones.

Mención aparte merece el ADA, diseñado bajo la petición del Departamento americano de
Defensa. expresamente para la programación de tiempo real de aplicaciones muy diversas con
complejidad media y elevada. Es absolutamente modular y cada tarea se programa en dos unidades
independientes, una de especificación y otra de realización o cuerpo, con todas las posibilidades de
comunicación y sincronización. También es más potente que los anteriores en manejo de tiempos, ges-
tión de entradas/salidas y manejo de interrupciones, pero, además, incluye un conjunto predefinido de
excepciones, ampliable por el programador, que se dispara automáticamente en el momento en que se
dan las condiciones de error y a las que se puede asociar el tratamiento que se desee. Además, para
facilitar la elaboración de grandes paquetes, se le asocian otra serie de facilidades como seguimiento de
versiones de programas y otras herramientas independientes del lenguaje en sí.

Entre los lenguajes orientados a problemas concretos están los de adquisición de datos y
acondicionamiento de señal, con rutinas de filtrado, conversión de datos, linealización y comprobación
de alarmas; los de control digital, con algoritmos de regulación (P, PI, PD, PID), tiempo mínimo, Smith,
Dazlin, contról en cascada y prealimentación, y otros más avanzados, incluso adaptativos; los de control
secuencial, para operaciones por lotes o de arranque y parada, a base de esquemas con relés, diagramas
lógicos, ecuaciones lógicas, Redes de Petri o Grafcet; los de tipo conversacional o algunos de rellenado
de formularios, o los ya muy especiales como son los de control numérico de máquinas-herramienta o
los de control de robots.

Los lenguajes para tiempo real en sistemas distribuidos exigen, además de las características de
los de tiempo real, capacidad de tratar la tolerancia a fallos de las configuraciones redundantes y la
57

distribución física de los programas, que obligan a realizar tanto descripciones estructurales. como
funcionales del problema y su solución. Este campo es un terreno totalmente nuevo. Solamente se puede
hablar del Multicomputer-PEARL (MCP), desarrollado en Alemania Federal, capaz de describir
reconfiguraciones en caso de fallo, con caminos alternativos y valores sustitutivos.

Comunicación hombre-máquina

En los nuevos sistemas de control de procesos la presentación de resultados ha dejado de hacerse


mediante indicadores de aguja o similares, para ser sustituidos por una pantalla con visualización en
color de los reguladores con sus alarmas, incorporando además, la presentación de históricos, ten-
dencias, gráficos esquemáticos del proceso, etc.. Por otra parte,
también se han eliminado los potenciómetros y pulsadores como medios de introducir órdenes o
información en la máquina: todo queda reducido a un teclado normalizado, a lo sumo, con unas teclas
funcionales. Esto exige poder disponer de una herramienta para crear patrones de presentación en pantalla
de resultados y de estados del proceso para recibir órdenes y para elaborar informes y presentarlos en
pantalla, o por la impresora. Respecto a la presentación de resultados, existen programas que utilizan
información almacenada en ficheros o en una base de datos (que puede estar centralizada o distribuida),
y que deben permitir el paso de una presentación a otra mediante órdenes de teclado, normalmente con
una sola tecla. Además, debe preparar la respuesta en tiempo real a las órdenes que se le introduzcan por
el teclado: cambio de puntos de consigna, control manual, alarmas, etc.

Simulación

El diseño del control de una instalación exige realizar numerosas pruebas y ensayos que no
siempre se pueden efectuar sobre ella misma, por el riesgo que comporta o, incluso, por hallarse en fase
de diseño. Es importante para el control de procesos disponer de herramientas y lenguajes de simulación
con los que construir modelos del proceso, y de su control real. Existen muchos lenguajes de simulación,
tanto de procesos continuos como discretos. Entre los primeros están ACSL, CSSL-IV, DARE, ISIS y
el desarrollado en España, ICDSL. Entre los segundos está el clásico GPSS.

Conectado con la simulación está lo que se conoce como Diseño con ayuda de computador de
sistemas de control, cuya actividad consiste en un conjunto de herramientas informáticas para diseñar y
probar por simulación distintos tipos de algoritmos y filosofías de control, monovariable o multivariable,
continuos o discretos, determinísticos o estocásticos, lineales o no lineales. No debe o!vidarse que la
simulación, cada vez más apoyada en herramientas gráficas, constituye la base de la Ingeniería con
ayuda de computador, herramienta fundamental del ingeniero de diseño, en casi todos los campos, para
aumentar su productividad.

Un aspecto especial del control de procesos, íntimamente conectado con la simulación, es el


58

desarrollo de simuladores de entrenamiento. Consisten en equipos informáticos que responden como el


proceso simulado, que permiten, con bajo coste, sin riesgo y mucha mayor rapidez, entrenar personal
para el mando de dicho proceso.

Entornos de programación

Aquí se incluyen las herramientas necesarias para facilitar la preparación de programas, su


depuración y su comprobación. Entre las primeras están los editores, compiladores, cargadores,
montadores; entre las segundas, los depuradores, trazadores, e, incluso, los depuradores de equipo físico
y entre las terceras, las rutinas para generar ejemplos de datos, la presentación del estado de memoria y
otros. Finalmente, hay que hacer referencia a los nuevos lenguajes existentes para definición de
requisitos y especificaciones, que permiten una elaboración automática de la documentación y preparan
la automatización total de la instalación desde la etapa inicial del diseño hasta su funcionamiento.

BIBLIOG RAFIA

1. Dormido, S, Prada de, C.: "Fundamentos y técnicas básicas en el control de procesos por
ordenador" Notas del IV Curso. "Automática en la Industria". Peñíscola, mayo 1984; ed. AEIA.
2. Computer, febrero 1984. Número especial "Software for industrial process control." IEEE Com.
Society.
3. Martínez, J., Silva, M.: "Lenguajes de programación para el control de procesos industriales".
Regulación y Mando, 134; Dic. 1983 pág. 127-137.
4. Getler, J., Sedlak, J.: "Software for process control - A Survey". Automática, v. 11, pg.613-625.

Potrebbero piacerti anche