Sei sulla pagina 1di 31

SEMINARIO AADECA-UBA

Lgica difusa, redes neuronales y control predictivo. Tcnicas modernas de control


Profesora: Dra. Doris Sez

Apuntes II: Control basado en Redes Neuronales

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

REDES NEURONALES

Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinmicos o estticos. El cerebro humano es una sistema muy complejo formado por muchas clulas llamadas neuronas; se estima que existen entre 1010 y 1011 de clulas en el cerebro. Las redes neuronales artificiales emulan la arquitectura y capacidades de sistemas neuronales biolgicos. Una esquema simplificado de una neurona se muestra en la siguiente figura.
Cuerpo celular Dendrita

Axn Sinapsis

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

En el cuerpo celular se realizan la mayora de las funciones lgicas de la neurona. El axn es el canal de salida final de la neurona. Las dentritas reciben las seales de entrada de los axones de otras neuronas y se conectan al cuerpo celular por medio de las sinapsis.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

REPRESENTACION MATEMATICA DE UNA NEURONA

En la siguiente figura se observa la estructura de una neurona artificial con mltiples entradas.

x1 x2 w2

w1

x3 w3 wk xk wn xn

En esta estructura, se tiene


u = w i xi
i =1 n

donde wi son los pesos de la neurona (sinpsis) xi son las entradas a la neurona n es el nmero de entradas a la neurona
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

n y = f ( u ) = f w i xi i =1

donde y es la salida de la neurona (axn) f es la funcin de activacin, correspondiente, en general, a una funcin no lineal (cuerpo celular) es el sesgo En general, se utilizan las siguientes funciones de activacin:

f 1 b -1 x 1

f 1 x

b -1

b -1

Limitador duro

Hiperblica

Sigmoidal

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Las redes neuronales son estructuras de procesamiento formadas por una gran cantidad de neuronas, que operan en paralelo. Adems, los distintos tipos de redes neuronales se generan a partir de la interconexin de neuronas. Las principales redes neuronales que se utilizan para modelacin no lineal son: Redes perceptrn multicapa Redes recurrentes Redes de funciones de base radiales (RBFN)

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

VENTAJAS DE LAS REDES NEURONALES

Las redes neuronales deben su capacidad de procesamiento de informacin a su estructura distribuida y paralela, a su capacidad de apredizaje y por tanto de generalizacin. Tareas Reconocimiento de patrones Memorias asociativas Aproximacin funcional Etc.

Propiedades - No linealidad. Las neuronas son elementos de proceso generalmente no lineales. La interconexin de estos elementos genera estructuras dde transformacin de datas donde este carcter no lineal queda distribuido a lo largo y ancho de la red. - Modelado de relaciones de entrada/salida. - Adaptibilidad. Las redes neuronales son por definicin estructuras adaptivas capaces de ajustar sus pesos, y por
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

tanto su funcin de transferencia, a cambios en su entorno. - Tolerancia ante fallos. Una red neuronal tiene la capacidad de seguir respondiendo de forma no catastrfica cuando parte de su estructura no est daada. Esto es debido al tratamiento distribuido de la informacin y a la redundancia implcita en su estructura.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

PERCEPTRN MULTICAPA

El perceptrn multicapa es una estructura jerrquica que consiste en varias capas de neuronas totalmente interconectadas, que admiten como entradas las salidas de los elementos de proceso (neuronas) de la capa anterior.

x1 y x2 capa 1 capa 3

capa 2

En las redes perceptrn multicapa se distinguen tres tipos de capas: Capa de entrada. Esta formada por n unidades (siendo n el nmero de entradas externas) que se limitan a distribuir las seales de entrada a la capa siguiente.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Capas ocultas. Estn formadas por neuronas que no tienen contacto fsico con el exterior. El nmero de capas ocultas es variable, pudiendo incluso ser nulo. Capa de salida. Est formado por m neuronas (siendo m el nmero de salidas externas) cuyas salidas constituyen el vector de salidas externas del perceptrn multicapa. Los modelos dinmicos neuronales estn dados por:
y( t ) = N( y( t 1),K, y( t ny), u ( t 1),K, u ( t nu ))

donde N es la red neuronal que puede ser un perceptrn multicapa, como se muestra en la siguiente figura.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

y(t-1) . . . y(t-ny) y(t) u(t-1) . . . u(t-nu)

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Aplicaciones Aproximacin funcional Reconocimiento de patrones Filtrado de seales Eliminacin de ruido Segmentacin de imgenes y seales Control adaptivo Compresin de datos Etc.

Ventajas - Capacidad de representacin funcional universal. Gran rapidez de procesamiento. Genera buenas representaciones internas de las caractersticas de los datos de entrada. Ampliamente estudiada. Es la red neuronal ms aplicada en la prctica

Desventajas - Tiempo de complejas aprendizaje elevado para estructuras

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Ejemplo Modelacin de la qumica del agua de una central trmica utilizando redes neuronales. Se considera la central trmica a carbn Anllares (350 MW), propiedad de la empresa Unin Elctrica Fenosa (UEFSA), Espaa. Esta central tiene en operacin un sistema experto denominado SEQA que permite adquirir variables relacionadas con las propiedades qumicas de los siguientes flujos del ciclo agua-vapor: vapor condensado, agua de alimentacin, vapor saturado, vapor sobrecalentado y vapor recalentado.

Vapor Sobrecalentado

Condensador

Turbinas Vapor Recalentado Vapor Saturado Caldera Agua de Alimentacin

Vapor Condensado

Las propiedades qumicas analizadas para los flujos considerados son: la conductividad catinica, la
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

conductividad especfica, el pH y el porcentaje de O2. La utilizacin de modelos predictivos para estas propiedades qumicas, en el sistema experto SEQA, permite controlar los problemas de corrosin de componentes presentes en la produccin de energa elctrica. Especialmente, es importante la modelacin de la conductividad catinica del ciclo agua-vapor, debido a que esta propiedad es muy representativa de las impurezas del agua. Como ejemplo de la modelacin neuronal de las propiedades qumicas del agua, se presentan los resultados obtenidos para la modelacin de la conductividad catinica del agua de alimentacin (CCaa). Las variables de entrada al modelo son: la potencia generada de la central (P) y la conductividad catinica del condensado (CCcond, flujo precedente). Los datos son adquiridos con un perodo de muestreo de 15 minutos. El modelo neuronal para la conductividad catinica del agua de alimentacin est dada por:
CC aa ( k ) = N (CC aa ( k 1), P( k 1), P( k 2 ), CC cond ( k ), CC cond ( k 1))

donde N es un perceptrn multicapa con una capa oculta de neuronas de funciones de activacin tangente hiperblica y una capa de salida lineal.
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

REDES RECURRENTES

Estos modelos son capaces de representar sistemas realimentados dinmicos no lineales (Narendra, 1990).

x1(t+1) x1(t) x2(t) . . . xn(t) . . . xn(t+1) x2(t+1)

z-1 z-1 z-1

Adems, se debe mencionar que existen diversos modelos neuronales que son combinaciones de las redes perceptrn multicapa y redes recurrentes.
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

REDES DE FUNCIONES DE BASE RADIALES (RBFN)

Las redes de funciones de base radiales (RBFN Radial Basis Function Networks) consisten en dos capas (Jang, 1993). Los modelos dinmicos basados en las redes RBFN estn dados por:
y( t ) = N( y( t 1), K, y( t ny), u( t 1), K, u ( t nu ))

donde N es una red neuronal como se muestra en la siguiente figura con n = ny + nu.
a1 y(t-1) . . . y(t-ny) u(t-1) . . . u(t-nu) any v1 vny y(t)

vn an

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

La capa oculta esta compuesta por n unidades radiales totalmente conectadas al vector de entrada. Las funciones de transferencia de la capa oculta son similares a una funcin de densidad gaussiana, es decir:
x ri a i = exp 2 i
2

donde x = [ y( t 1), K , y( t ny), u( t 1), K u( t nu )] es el vector de entradas de la red, ri son los centros de las unidades radiales, i representan los anchos. La salida de la red est dada por:
y( t ) =

v a
i i=1

donde vi son los pesos de las unidades radiales.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Ejemplo Modelacin neuronal basada en RBFN para un fermentador batch de alimentacin. La presin en el estanque de fermentacin puede ser controlada a travs del cambio de flujo de aire de salida manteniendo constante el flujo de aire de entrada.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

El modelo de la red est dado por:


$ ( k + 1) = N( y( k ), u ( k )) y

donde y(k) es la presin en el estanque y u(k) es el flujo de salida. Adems, N es una red neuronal lineal/RBF dada por las siguientes ecuaciones:
y( k + 1) = w 0 + w 1i i ri (k ) + w T 2 x(k)
i =1 n

ri (k ) = x ( k ) c i
x (k ) = y(k ),K, y(k n y ), u( k ),K, u( k n u )

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Aplicaciones

- Aproximacin funcional - Reconocimiento de patrones

Ventajas Capacidad de representacin funcional universal. La estructura de esta red tiene interpretacin directa, lo que permite realizar una buena inicializacin de los pesos de la red, y extraer conocimiento de las estructuras ajustadas. La buena inicializacin de los pesos acelera el proceso de aprendizaje.

Desventajas El procesamiento realizado es algo ms complejo que en el caso del perceptrn multicapa.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

OTROS TIPOS DE REDES

Adaline. Estas neuronas tienen capacidad de aprendizaje debido a que sus pesos son cambiados adaptivamente de acuerdo a un algoritmo adaptivo. Sus aplicaciones principales son: filtrado adaptivo de seales, reconocimiento de patrones. Son fcilmente implementables en hardware debido a su sencillez y homogeneidad, sin embargo slo son capaces de resolver problemas de clasificacin linealmente separables y llevar a cabo transformaciones lineales.

Mapas autoorganizativos de Kohonen. En este caso, las neuronas estn ordenadas topolgicamente. Frente a la presentacin de un patrn n-dimensional de entrada, compiten lateralmente hasta que slo una de ellas queda activa. El objetivo es que patrones de entrada con caractersticas parecidas queden asociados a neuronas topolgicamente cercanas. Sus principales aplicaciones son: agrupacin y representacin de datos, compresin de datos y optimizacin.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

ENTRENAMIENTO DE REDES NEURONALES

Se entiende por entrenamiento el clculo de pesos y sesgos de manera que la red se comporte de una manera deseada. De acuerdo al tipo de entrenamiento, las redes se pueden subdividir en dos grandes grupos: Redes con entrenamiento supervisado. Estas redes se entrenan presentando, para cada combinacin de entradas, las salidas que se espera ellas produzcan. Los algoritmos de entrenamiento calculan pesos y sesgos nuevos de manera de minimizar el error entre la salida deseada y la obtenida realmente. Redes sin supervisin. Los algoritmos de entrenamiento calculan nuevos pesos libremente. Estas redes se utilizan como clasificadores, pues se caracterizan por asociar una combinacin de entradas especifica con una sola salida.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

ALGORITMO DE ENTRENAMIENTO BACKPROPAGATION

El algoritmo de entrenamiento backpropagation se utiliza para ajustar los pesos y sesgos de un red, con el fin de minimizar la suma del cuadrado de los errores de la red. El algoritmo backpropagation es un mtodo iterativo de optimizacin de descenso segn el gradiente, cuyos detalles se presentan a continuacin. Para una neurona j en una capa oculta o en la salida, la seal de salida es
n o j = f w ijo i b j i =1

donde f es la funcin de activacin de la neurona wij son los pesos de las conexiones entre la neurona considerada, j, y la neurona i, perteneciente a la capa precedente. oi es la salida de la neurona i de la capa precedente bj es el sesgo de la neurona j En este caso, se considera funciones de activacin sigmoide logartmicas.
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Adems, se define
net j = w ijo i b j
i =1 n

La salida de la neurona j, entonces, est dada por


o j = f net j =

1 1+ e
net j

Para el entrenamiento, el valor -bj se considera como un peso correspondiente a la conexin de la neurona j con una supuesta neurona de la capa precedente cuya salida es constante e igual a uno. El algoritmo de backpropagation permite ajustar los pesos de la red neuronal con el fin de minimizar el error cuadrtico sobre un conjunto de entradas y salidas asociadas (patrones) que la red debe ser capaz de aprender para luego realizar generalizaciones a partir de ellas. Adems, se define como superficie de error a la funcin multivariable generada por la expresin del error de ajuste en trminos de los pesos y sesgos de las neuronas de la red.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

El algoritmo backpropagation permite determinar los valores de los pesos para los cuales la funcin de error es mnima. Esto no siempre se logra, convergiendo muchas veces el algoritmo a mnimos locales, no al mnimo global buscado, o simplemente no convergiendo. Se considera una red con M neuronas en la capa de salida y suponiendo que se dispone de un conjunto de entrenamiento con P patrones, uno de los cuales, denominado p, tiene salidas dadas por
t p = t p1 , t p 2 ,K , t pM

el error cuadrtico tiene, para ese patrn, la siguiente expresin


1 M E p = t pi o pi 2 i =1

que corresponde al error tomado para derivar la regla de optimizacin. Los valores tpi representan las salidas deseadas ante las entradas correspondientes al patrn p. Cuando dicho patrn es presentado a la red, los pesos se modifican segn una
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

regla iterativa derivada del mtodo de optimizacin segn el gradiente, con lo cual el peso wij segn la ecuacin
w ij ( h) = w ij ( h 1) + w ij ( h)

donde h corresponde al contador dentro de una iteracin. En este caso, una iteracin se define como la presentacin (una vez) de todos los patrones entrada/salida de los cuales se dispone para el entrenamiento. El valor de w ij ( h) se calcula como
E p Ep net j w ij ( h ) = w = net w ij j ij

(*)

donde es la tasa de aprendizaje (constante de proporcionalidad) ( 0 < <1) En general, los pesos se inicializan entre cero y uno aleatoriamente. Se define el parmetro j como
j = E p net j = E p o j o j net j

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

En las expresin siguientes, el subndice p se ha omitido por simplicidad. Para calcular las derivadas es necesario tener en cuenta que la funcin de activacin escogida es una sigmoide logartmica, cuya derivada es
df ( x ) d 1 1 = = dx dx 1 + e x 1 + e x 1 1 = f ( x )(1 f ( x )) 1 + ex

Para una neurona j en la capa de salida se tiene, entonces,


j = t j oj oj 1 oj

) (

Para una neurona en la capa oculta o en la capa de entrada, se tiene


j = o j (1 o j ) ( k w jk )
k

donde el contador k cubre las neuronas de la capa posterior a la j. Entonces, la correccin de los pesos se comienza por la capa de salida y se propaga hacia atrs hasta llegar a la capa de entrada.
Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Con esto, el trmino (*) se puede expresar como


w ij = joi

Ahora bien, normalmente no se emplea slo esta expresin sino que se agrega un trmino denominado momentum, que corresponde al cambio anterior en el peso ponderado por el coeficiente de momentum. Entonces, se tiene
w ij = joi + w ij ( h 1)

donde es el coeficiente de momento. Este trmino permite suavizar la convergencia del mtodo y ayuda a que la convergencia de los pesos no se vea demasiado afectada por irregularidades en la superficie de error. Considerando los P patrones de que se dispone y con los cuales se realizar el entrenamiento, la expresin para el error total, o error de ajuste, es la siguiente
2 1 M E = E p = t pi opi p =1 p =1 2 i =1 P P

En general, el entrenamiento se considera acabado cuando el valor de E es menor o igual que un lmite preestablecido.

Doris Sez (Marzo, 2002). Apuntes II. Control basado en Redes Neuronales. Seminario AADECAUBA, Buenos Aires.

Potrebbero piacerti anche