Sei sulla pagina 1di 109

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/200619691

Estrategias Evolutivas Aplicadas a los


Algoritmos de Enjambres para el Control de
Sistemas Complejos

Thesis January 2008

READS

656

1 author:

Mario Andrs Muoz Acosta


Monash University (Australia)
30 PUBLICATIONS 91 CITATIONS

SEE PROFILE

Available from: Mario Andrs Muoz Acosta


Retrieved on: 03 August 2016
Estrategias Evolutivas aplicadas a los
Algoritmos de Enjambres para el control
de sistemas complejos

Mario Andres Munoz

Tesis presentada como requisito para optar al ttulo de


Magister en Ingeniera Enfasis Electronica

Facultad de Ingeniera
Escuela de Ingeniera Electrica y Electronica
Santiago de Cali
2008
Estrategias Evolutivas aplicadas a los Algoritmos de Enjambres para el
control de sistemas complejos

Mario Andres Munoz

Director(es):
Eduardo Francisco Caicedo, Ph.D.
Jesus Alfonso Lopez, Ph.D.

Evaluador(es):
Unknown

Universidad del Valle


Escuela de Ingeniera Electrica y Electronica
Santiago de Cali Enero de 2008

Documento preparado en LATEX Ghostscript.


Resumen

En este documento se presenta el desarrollo e implementacion de una metodologa para


la autoadaptacion de algoritmos de Inteligencia de Enjambres por medio de la aplicacion
de los conceptos de Estrategias Evolutivas. La metodologa hace uso del promedio del
desempeno de cada uno de los individuos del enjambre para determinar si los parametros
de la estrategia son los adecuados para las circunstancias actuales del problema. Por medio
de esta realimentacion, el sistema prueba de manera controlada varios puntos en el espacio
de parametros con el fin de obtener mejores soluciones.

Se realizaron pruebas en tres escenarios diferentes: La busqueda del mnimo en diez


funciones de uso comun en la prueba de metodos de optimizacion; la sintonizacion de un
controlador PID para un sistema de dos masas con flexibilidad y amortiguamiento; y la
implementacion de un control indirecto adaptativo para la Plataforma de Experimentacion
de Temperatura Multizona (MuTEP). Los resultados obtenidos permitieron demostrar que
la autoadaptacion permite el control de los parametros al seleccionar de un grupo de
mutaciones aquella que en la iteracion presente el mejor desempeno y que ademas permite
disenar controladores con mejores resultados en los problemas examinados, al alcanzarse
ndices de desempeno menores.

Palabras Claves: Inteligencia Artificial, Computacion Evolutiva, Inteligencia de Enjambres,


Estrategias Evolutivas, Control de Parametros, Diseno de Controladores, Algoritmos de
Optimizacion.

I
Abstract

This document presents the development and implementation of an selfadaptation


methodology for Swarm Intelligence algorithms by the use of the concepts of the Evolution
Strategies. The methodology proposed uses the cost average of each swarm agent to
determine if the parameters of the strategy are the adequate for the current problem
circumstances. By this feedback, the system tests in a controlled way, several points in the
parameter space with the objective to obtain better solutions. As proofs, three sceneries were
chosen: The minimum search in ten benchmark functions, the tuning of a PID controller for a
twomass system with flexibility and damping, and the implementation of an indirect adaptive
controller for the Multizone Temperature Experimentation Platform (MuTEP). The results
obtained showed that the swarm selfadaptation allows the parameter control by selecting,
from a group of mutations, the one that achieves the best performance in the iteration, and
also helps in the design of controllers with better performance in the proposed problems.

Keywords: Artificial Intelligence, Evolutionary Computation, Swarm Intelligence, Evolution


Strategies, Parameter Control, Controller Design, Optimization Algorithms.

III
A mi familia. Sin su apoyo, consejos y paciencia, no podra haber terminado otra
etapa de mi vida.
A mis amigas, que me brindaron sus odos durante los momentos difciles.
Por los suenos y victorias que vendran...
Indice general

Introduccion 1

Definicion del Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

Contenidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1. Computacion Evolutiva: Sociedades para solucionar problemas 5

1.1. Computacion Evolutiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2. Las Estrategias Evolutivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3. Inteligencia de enjambres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3.1. Optimizacion por Enjambre de Partculas . . . . . . . . . . . . . . . . 12

1.3.2. Optimizacion por Colonia de Hormigas . . . . . . . . . . . . . . . . . . 14

1.3.3. Optimizacion por Enjambre de Bacterias . . . . . . . . . . . . . . . . . 17

VII
INDICE GENERAL

1.3.4. Busqueda por Difusion Estocastica . . . . . . . . . . . . . . . . . . . 20

1.3.5. Colonias de Abejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2. Evolucion de enjambres 25

2.1. Implementacion de Enjambres Evolutivos . . . . . . . . . . . . . . . . . . . . 26

2.1.1. Evolucion de Enjambre de Bacterias . . . . . . . . . . . . . . . . . . . 28

2.1.2. Evolucion de Enjambre de Partculas . . . . . . . . . . . . . . . . . . 29

2.2. Evaluacion de desempeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3. Sintonizacion de un Control PID por medio de enjambres evolutivos 41

3.1. Sistema de dos masas con flexibilidad y amortiguamiento . . . . . . . . . . . 42

3.2. Sintonizacion de controladores PID . . . . . . . . . . . . . . . . . . . . . . . 45

3.3. Procedimiento y Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4. Regulacion de Temperatura en la Plataforma de Experimentacion de Temperatura


Multizona 49

4.1. Plataforma de Experimentacion de Temperatura Multizona . . . . . . . . . . . 50

4.2. Control Indirecto Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4.3. Procedimiento y Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5. Conclusiones y Trabajos Futuros 69

5.1. Discusion final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

VIII
INDICE GENERAL

5.2. Publicaciones resultantes de la investigacion . . . . . . . . . . . . . . . . . . 70

5.2.1. Artculos en Revistas . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

5.2.2. Trabajos en Conferencias . . . . . . . . . . . . . . . . . . . . . . . . . 71

5.3. Trabajos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

A. Tablas de resultados 75

IX
INDICE GENERAL

X
Indice de figuras

2.1. Resultados para la funcion SCB . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.2. Resultados para la funcion PFUNC . . . . . . . . . . . . . . . . . . . . . . . 34

2.3. Resultados para la funcion Peaks . . . . . . . . . . . . . . . . . . . . . . . . 34

2.4. Resultados para la funcion DeJong F1 . . . . . . . . . . . . . . . . . . . . . . 35

2.5. Resultados para la funcion Grienwank . . . . . . . . . . . . . . . . . . . . . . 35

2.6. Resultados para la funcion Rastrigin . . . . . . . . . . . . . . . . . . . . . . . 35

2.7. Resultados para la funcion Ackley . . . . . . . . . . . . . . . . . . . . . . . . 37

2.8. Resultados para la funcion DeJong F2 . . . . . . . . . . . . . . . . . . . . . . 37

2.9. Resultados para la funcion Schaffer F6 . . . . . . . . . . . . . . . . . . . . . 37

2.10.Resultados para la funcion Schewefel . . . . . . . . . . . . . . . . . . . . . . 38

3.1. Sistema de dos masas con flexibilidad y amortiguamiento . . . . . . . . . . . 42

3.2. Resultados obtenidos con el PID sintonizado por EvBSFO . . . . . . . . . . . 47

3.3. Resultados obtenidos con el PID sintonizado por EvPSO . . . . . . . . . . . . 47

XI
INDICE DE FIGURAS

4.1. Aquitectura de la planta en la Plataforma de Experimentacion de Temperatura


Multizona (MuTEP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4.2. Arquitectura general de la Plataforma de Experimentacion de Temperatura


Multizona (MuTEP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4.3. Esquema de un Controlador Indirecto Adaptativo . . . . . . . . . . . . . . . . 52

4.4. Resultados obtenidos con el IAC1 con identificacion por BSFO con referencia
constante de 35 C y volumen infinito . . . . . . . . . . . . . . . . . . . . . . 55

4.5. Resultados obtenidos con el IAC3 con identificacion por IWPSO con referencia
constante de 45 C y volumen aislado . . . . . . . . . . . . . . . . . . . . . . 55

4.6. Resultados obtenidos con el IAC1 con identificacion por EvBSFO con
referencia constante de 35 C y volumen aislado . . . . . . . . . . . . . . . . 56

4.7. Resultados obtenidos con el IAC2 con identificacion por EvBSFO con
referencia constante de 40 C y volumen infinito . . . . . . . . . . . . . . . . . 56

4.8. Resultados obtenidos con el IAC3 con identificacion por EvBSFO con
referencia variable y volumen infinito . . . . . . . . . . . . . . . . . . . . . . . 56

4.9. Resultados obtenidos con el IAC1 con identificacion por EvPSO con referencia
constante de 40 C y volumen infinito . . . . . . . . . . . . . . . . . . . . . . 58

4.10.Resultados obtenidos con el IAC2 con identificacion por EvPSO con referencia
constante de 45 C y volumen aislado . . . . . . . . . . . . . . . . . . . . . . 58

4.11.Resultados obtenidos con el IAC3 con identificacion por EvPSO con referencia
variable y volumen aislado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

4.12.Temperatura final promedio con referencia fija . . . . . . . . . . . . . . . . . . 59

4.13.Error relativo con referencia fija . . . . . . . . . . . . . . . . . . . . . . . . . 59

4.14.Dispersion de la superficie con referencia fija . . . . . . . . . . . . . . . . . . 60

4.15.Error cuadrado medio con referencia fija . . . . . . . . . . . . . . . . . . . . . 60

4.16.Error absoluto medio con referencia fija . . . . . . . . . . . . . . . . . . . . . 61

4.17.Error cuadrado por el tiempo medio con referencia fija . . . . . . . . . . . . . 61

4.18.Error absoluto por el tiempo medio con referencia fija . . . . . . . . . . . . . . 62

XII
INDICE DE FIGURAS

4.19.Suavidad de la accion de control con referencia fija . . . . . . . . . . . . . . . 62

4.20.Accion de control promedio con referencia fija . . . . . . . . . . . . . . . . . . 63

4.21.Temperatura final promedio con referencia variable . . . . . . . . . . . . . . . 64

4.22.Error relativo con referencia variable . . . . . . . . . . . . . . . . . . . . . . . 64

4.23.Dispersion de la superficie con referencia variable . . . . . . . . . . . . . . . 65

4.24.Error cuadrado medio con referencia variable . . . . . . . . . . . . . . . . . . 65

4.25.Error absoluto medio con referencia variable . . . . . . . . . . . . . . . . . . 66

4.26.Error cuadrado por el tiempo medio con referencia variable . . . . . . . . . . . 66

4.27.Error absoluto por el tiempo medio con referencia variable . . . . . . . . . . . 67

4.28.Suavidad de la accion de control con referencia variable . . . . . . . . . . . . 67

4.29.Accion de control promedio con referencia variable . . . . . . . . . . . . . . . 68

XIII
INDICE DE FIGURAS

XIV
Indice de tablas

1.1. Algoritmo de la Estrategia Evolutiva ( / +, ) . . . . . . . . . . . . . . . . . 11

1.2. Optimizacion por Enjambre de Partculas . . . . . . . . . . . . . . . . . . . . 13

1.3. Optimizacion por Colonia de Hormigas . . . . . . . . . . . . . . . . . . . . . 16

1.4. Optimizacion por Enjambre de Bacterias . . . . . . . . . . . . . . . . . . . . 19

1.5. Busqueda por Difusion Estocastica . . . . . . . . . . . . . . . . . . . . . . . 21

1.6. Algoritmo de Colmena de Abejas Artificiales . . . . . . . . . . . . . . . . . . 23

2.1. Algoritmo de Enjambres Evolutivo . . . . . . . . . . . . . . . . . . . . . . . . 28

2.2. Optimizacion por Enjambre de Bacterias Evolutivo . . . . . . . . . . . . . . . 29

2.3. Optimizacion por Enjambre de Partculas Evolutivo . . . . . . . . . . . . . . . 30

2.4. Parametros de los algoritmos para la prueba con funciones . . . . . . . . . . . 31

2.5. Parametros de las funciones de prueba . . . . . . . . . . . . . . . . . . . . . 31

2.6. Ecuaciones de las funciones de prueba . . . . . . . . . . . . . . . . . . . . . 32

2.7. Resultados del ttest para el Algoritmo EvBSFO . . . . . . . . . . . . . . . . 39

XV
INDICE DE TABLAS

2.8. Resultados del ttest para el Algoritmo EvPSO . . . . . . . . . . . . . . . . . 39

3.1. Parametros del sistema de dos masas . . . . . . . . . . . . . . . . . . . . . . 44

3.2. Parametros de los algoritmos para la sintonizacion del control PID . . . . . . . 46

3.3. Parametros del Controlador PID obtenidos por Enjambres Evolutivos . . . . . . 46

3.4. Tiempos de establecimiento obtenidos con el experimento de referencia variable 48

4.1. Parametros de los algoritmos para el control adaptativo . . . . . . . . . . . . . 54

4.2. Indices de desempeno para la comparacion de los controladores . . . . . . . . 57

A.1. Desempeno del Controlador Indirecto Adaptativo con volumen de control


infinito y referencia fija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

A.2. Desempeno del Controlador Indirecto Adaptativo con volumen de control


aislado y referencia fija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

A.3. Desempeno del Controlador Indirecto Adaptativo con volumen de control


infinito y referencia variable . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

A.4. Desempeno del Controlador Indirecto Adaptativo con volumen de control


aislado y referencia variable . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

XVI
Introduccion

Para obtener una solucion a un problema, la primera decision a tomar es la seleccion de


un metodo. Esta decision puede basarse en algunos aspectos subjetivos como preferencias
personales debidas al conocimiento practico y teorico del disenador, o aspectos objetivos
como la complejidad del metodo al ser aplicado al problema. Sin embargo la seleccion de la
herramienta adecuada puede determinar en gran manera el exito o no del proceso de diseno.

Las siguientes decisiones estan relacionadas con la adaptacion del metodo al problema
propuesto. Cuando se trabaja con sistemas inteligentes, esta es una parte crtica debido a
que estos sistemas poseen formas genericas que pueden ser utiles a una gran variedad de
problemas, pero es necesario seleccionar adecuadamente arquitecturas y parametros para
su correcto desempeno. Por lo general la seleccion de parametros se realiza por medio de
una busqueda sistematica hasta encontrar un conjunto de valores que resulten adecuados,
pero se desconoce si estos son los mejores disponibles. Para evitar este inconveniente, se
han establecido estrategias que modifican los parametros del sistema durante la solucion
del problema principal, ya sea por reglas determinsticas sin realimentacion o por metodos
adaptativos o evolutivos (autoadaptativos) que poseen realimentacion.

Este documento presenta el desarrollo y aplicacion de una metodologa para la


autoadaptacion de algoritmos de Inteligencia de Enjambres por medio de la aplicacion de
los conceptos de Estrategias Evolutivas. La autoadaptacion utiliza los resultados promedio
del enjambre para determinar si los parametros del sistema de busqueda son los adecuados.
De esta manera el sistema prueba de manera controlada varios puntos en el espacio de
parametros con el objetivo de obtener mejores soluciones.

1
INTRODUCCION

Definicion del Problema

En Ingeniera de Control se presentan diferentes tipos de problemas que involucran


el analisis de sistemas, algunos de los cuales, poseen caractersticas que los hacen
susceptibles de ser solucionados por metodos convencionales o clasicos, como por ejemplo
por medio de la sintonizacion de un controlador PID, debido a que existe un completo
modelo determinstico. Sin embargo, existen problemas cuyas caractersticas impiden que
sean rapida y eficientemente solucionados por metodos clasicos o convencionales. Estos
problemas involucran sistemas con multiples entradas y salidas, caractersticas no lineales,
alto acoplamiento y presencia de fuertes disturbios. Este tipo de problemas pueden ser
solucionados eficientemente con metodos inspirados en la biologa, psicologa y otras
ciencias, dando nacimiento al Control Inteligente, el cual se encarga de utilizar tecnicas de
inteligencia artificial en la solucion de problemas de identificacion, optimizacion y control.

Los algoritmos de inteligencia de enjambres, que hacen parte de la inteligencia artificial,


constituyen un metodo para solucionar problemas complejos por medio de la interaccion en
paralelo de multiples agentes computacionales que modelan el comportamiento de algunos
seres vivos que conforman grupos o enjambres tanto en la busqueda de alimento como
en estados de migracion y defensa. Estos algoritmos representan un metodo adicional
para el diseno de sistemas de control que presenten buenos resultados sin el estudio
intensivo necesario en las tecnicas convencionales. Sin embargo, estos algoritmos presentan
la desventaja de considerar una poblacion de agentes cuyas caractersticas intrnsecas estan
determinadas por un conjunto de parametros estaticos seleccionados de manera emprica o
sistematica. El trabajo de seleccion puede llegar a ser tedioso y generar valores que no sean
los mas adecuados.

Determinar el conjunto de parametros que permitan obtener la mejor respuesta a un


determinado problema requiere la incursion de mecanismos que permitan decidir, durante la
ejecucion, cuales son los mas adecuados de acuerdo a las circunstancias. Este mecanismo,
conocido como autoadaptacion permiten a una poblacion la busqueda de su estado optimo,
dandole a los algoritmos la adaptabilidad necesaria, para encontrar soluciones que tiendan a
la optima.

Objetivos

El proyecto de investigacion tiene como objetivo principal el desarrollar y aplicar un metodo


basado en la autoadaptacion de parametros existente en los algoritmos de Estrategias
Evolutivas para el control de parametros de un algoritmo de enjambres, de tal manera que

2
Contenidos

pueda ser util para disenar controladores que tiendan a ser optimos aplicables a sistemas
complejos. Con base en este objetivo, se definieron los siguientes objetivos especficos:

Realizar un estudio del estado del arte para conocer las tendencias actuales en la
investigacion de la inteligencia de enjambres, estrategias evolutivas y su aplicacion a
sistemas de control.

Determinar la estrategia de control mas adecuada para ser utilizada con la optimizacion
por inteligencia de enjambres.

Seleccionar los algoritmos de enjambres que posean las caractersticas necesarias


para desarrollar una estrategia del tipo seleccionado.

Determinar que parametros dentro de la poblacion del enjambre son susceptibles a ser
evolucionados.

Evaluar si la poblacion del enjambre, al aplicar una estrategia evolutiva, tiende a ser
optima.

Validar el comportamiento del controlador sobre la plataforma de experimentacion de


temperatura multizona (MuTEP).

Contenidos

El documento se ha dividido en los siguientes captulos:

El captulo 1 presenta una revision de los conceptos y una taxonoma de la


Computacion Evolutiva, haciendo enfasis en las tecnicas de Inteligencia de Enjambres
y Estrategias Evolutivas, para las cuales se presentan algunas aplicaciones relevantes.

El captulo 2 presenta la metodologa de autoadaptacion de los algoritmos de


enjambres, su aplicacion a dos algoritmos de busqueda en espacios continuos
(Optimizacion por Enjambres de Partculas y Optimizacion por Enjambre de Bacterias)
y un analisis estadstico de desempeno con respecto a las versiones estaticas de los
mismos algoritmos para establecer que tipo de mejoras induce la autoadaptacion.

El captulo 3 presenta el problema de control optimo de tiempo mnimo para el sistema


de dos masas con flexibilidad y amortiguamiento y la aplicacion de los algoritmos de
enjambres evolutivos para la sintonizacion de un controlador que permita obtener una
respuesta optimizada.

3
INTRODUCCION

El captulo 4 presenta la construccion de un controlador indirecto adatativo para la


Plataforma de Experimentacion de Temperatura Multizona (Multizone Temperature
Experimentation Platform MuTEP) haciendo uso de los algoritmos de enjambres
evolutivos como esquema de identificacion.

Finalmente el captulo 5 presentan las conclusiones y las publicaciones resultantes de


esta investigacion, ademas de los trabajos futuros propuestos para la continuacion de
la tematica.

Agradecimientos

Un trabajo de investigacion de maestra solo es posible con la colaboracion de varias


personas que ofrecieron sus ideas, ayuda e inclusive crticas. Deseo agradecer en primera
instancia a los profesores Eduardo F. Caicedo, Ph.D. y Jesus A. Lopez, Ph.D. cuya confianza,
asesora y amistad, ha propiciado la culminacion este trabajo con exito. Al ingeniero Wilfredo
Alfonso, cuyo trabajo en MuTEP, sus aportes en inteligencia de enjambres y sobretodo
su amistad, permitieron el enriquecimiento de este trabajo. A los profesores Jose Miguel
Ramrez, Ph.D. y Jorge Finke, Ph.D. por su evaluacion de la propuesta de este proyecto,
sus comentarios, correcciones y crticas, que espero hayan incrementado la calidad de este
trabajo. A los ingenieros Hernan Bentez, Alexander Campo y Javier Castillo, por despejar
algunas dudas respecto a algunos temas puntuales durante la investigacion. A la audiencia
durante las ponencias en los congresos CERMA 2006, ACA 2007 e IFSA 2007, donde se
produjeron algunas discusiones que fueron utiles para aclarar algunos conceptos.

Finalmente, a la Universidad del Valle, al Programa de Postgrado en Ingeniera Electrica


y Electronica, y al Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnologa
COLCIENCIAS, por la beca otorgada por medio del proyecto Plataforma de Procesamiento
Distribuido, con Acceso Remoto Multiusuario y Emulacion de Sistemas Dinamicos, para la
Investigacion y Educacion en Ingeniera, contrato No. 1106-11-17707. Sin su financiacion
este trabajo no podra haberse realizado.

4
CAPITULO 1

Computacion Evolutiva: Sociedades para solucionar


problemas

El ser humano se ha dado a si mismo el nombre cientfico de homo sapiens como una
valoracion de la trascendencia de sus habilidades mentales tanto para su vida cotidiana
como en su propio sentido de identidad, y por lo tanto, la comprension de estas habilidades
ha permitido el nacimiento de ramas cientficas que se encargan, por diferentes metodos,
de analizar, entender y, en un caso particular, emular la inteligencia. A esta rama en
particular se le conoce como Inteligencia Artificial o IA, la cual se enfoca en lograr no solo
la comprension de las entidades inteligentes sino su construccion. La importancia de la IA no
radica unicamente en un esfuerzo de dotar de capacidades mentales a objetos inanimados
sino tambien aprender mas acerca de la humanidad misma.

La IA es una disciplina relativamente nueva y sus orgenes se remontan formalmente a


1956, cuando el termino fue acunado [Russell96], sin embargo, el estudio de la inteligencia
puede remontarse a la antiguedad, cuando los filosofos se esforzaban por comprender como
se ve, aprende, recuerda y razona, e inclusive como deberan ser realizadas estas tareas.
Existen en la actualidad dos escuelas de pensamiento dentro de la IA de como deberan
construirse y razonar las entidades inteligentes: La Inteligencia Artificial Convencional (Good
Old Fashioned Artificial Intelligence GOFAI), la cual define que las soluciones deben
ser elegantes, claras y probablemente correctas, e involucra metodos formales y logicos;
y la Inteligencia Computacional (Computational Intelligence CI), la cual considera que la

5
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

inteligencia es muy compleja para ser solucionada de manera formal, por lo tanto involucra
metodos iterativos donde se desarrolla el conocimiento [Wikipedia08d].

Si bien las soluciones logicas propuestas por GOFAI no pueden ser descartadas en varias
aplicaciones, es claro que en algunas circunstancias, el desarrollo del conocimiento es mas
util que su programacion. Las tecnicas de CI tienen cada vez una mayor acogida y a cada
instante se obtienen nuevos descubrimientos en sus tres campos: Las Redes Neuronales
Artificiales (Artificial Neural Networks ANN), los Sistemas Difusos (Fuzzy Systems FS) y
la Computacion Evolutiva (Evolutionary Computation EC) [Wikipedia08b].

En este captulo, se presenta una revision a los conceptos de la EC, en particular la rama
de Inteligencia de Enjambres (Swarm Intelligence SI). En la seccion 1.1 se presentan las
caractersticas principales de la EC y sus dos ramas: los Algoritmos Evolutivos (Evolutionary
Algorithms EA) y la Inteligencia de Enjambres. En la seccion 1.2 se presentan los conceptos
basicos de las estrategias evolutivas (Evolution Strategies ES), un EA cuya principal
caracterstica es la auto adaptacion de sus parametros. En la seccion 1.3 se presentan los
conceptos basicos de SI y sus principales tecnicas. Finalmente en la seccion 1.4 se presentan
algunas conclusiones sobre la teora basica.

1.1. Computacion Evolutiva

Una de las aplicaciones mas comunes de la CI es la busqueda de la solucion optima en


problemas de alta complejidad, tanto en espacios continuos como discretos. Un algoritmo de
optimizacion es un metodo numerico que encuentra un valor i Rn , donde Rn es un espacio
ndimensional de busqueda, que minimiza o maximiza una funcion J ( ), por medio de la
seleccion sistematica de valores de la variable i posiblemente con algunas restricciones.
La variable i puede ser un escalar o un vector de valores discretos o continuos llamados
funciones factibles, mientras que J ( ) es llamada funcion objetivo. Una solucion factible que
minimiza o maximiza la funcion objetivo es llamada una solucion optima [Wikipedia08a]. Un
tipo de problemas de optimizacion son aquellos que requieren combinaciones de valores, a
estos problemas se le denominan de optimizacion combinatoria.

Las tecnicas utilizadas para resolver problemas complejos de optimizacion combinatoria han
evolucionado progresivamente de metodos constructivos a metodos de busqueda local y
finalmente a algoritmos basados en poblaciones [Hertz00]. Estos ultimos son muy populares
actualmente puesto que proveen buenas soluciones al utilizar un metodo constructivo para
la obtencion de la poblacion inicial, y una tecnica de busqueda local para mejorar la solucion
de la poblacion. Ademas los metodos basados en poblaciones tienen la ventaja adicional de
ser capaces de combinar buenas soluciones en orden de obtener unas mejores, ya que se

6
1.1 Computacion Evolutiva

considera que las buenas soluciones comparten componentes con las soluciones optimas.
A estos metodos se les conoce como algoritmos de computacion evolutiva (Evolutionary
Computation EC).

Los algoritmos de EC comprenden un conjunto de tecnicas iterativas que manejan una


poblacion de individuos que son evolucionados (modificados) mediante una serie de reglas
que han sido claramente especificadas. En cada iteracion, periodos de auto adaptacion, los
cuales implican cambios en el individuo; son alternados con periodos de cooperacion, los que
implican el intercambio de informacion entre individuos.

Debido a que varios algoritmos pueden ser descritos de esta manera, al considerar el diseno
de un nuevo algoritmo de EC para la solucion de un problema particular de optimizacion, se
debe tener en cuenta las siguientes caractersticas principales:

La existencia de individuos que pueden representar soluciones de un problema. Estas


soluciones pueden ser factibles o no, parciales o completas, individuales o grupales.

Un proceso de evolucion que permite definir los cambios en la poblacion a cada


generacion o de manera continua.

Una definicion de vecindad que permite conocer el modo en que los individuos
intercambian informacion. Puede ser estructurada si solo un grupo de la poblacion
puede conocer la informacion de un miembro, o por el contrario, todos los individuos
pueden tener acceso a la informacion.

Un mecanismo que permita identificar las fuentes de informacion de un individuo, ya


que la vecindad puede proveer una gran cantidad de informacion, se puede determinar
cual es mas conveniente utilizar.

Una medida de la factibilidad de la solucion obtenida, lo cual permite determinar cual


es buena, optima o inadecuada.

Un mecanismo de intensificacion, el cual corresponde al uso de metodos que puedan


generar mejoras significativas durante la fase de autoadaptacion. Este mecanismo
realiza mejoras sobre un individuo sin tener en cuenta la informacion suministrada por
otros individuos, permitiendo la intensificacion de la busqueda sobre algunas regiones
del espacio.

Un mecanismo de diversificacion, el cual permite evitar convergencia hacia puntos


optimos locales. Este procedimiento modifica cada individuo independientemente, pero
al contrario del mecanismo de intensificacion, tiene resultados inesperados sobre un
individuo. Un tipo de mecanismo de diversificacion es el operador mutacion en los GA.

7
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

As, la EC representan un amplio grupo de tecnicas, basicamente dividida en dos ramas cuyas
diferencias fundamentales se encuentran en la aplicacion de los conceptos anteriores: Los
Algoritmos Evolutivos (Evolutionary Algorithms EA) y la Inteligencia de Enjambres (Swarm
Intelligence SI).

Los Algoritmos Evolutivos: Corresponden a un grupo de tecnicas estocasticas que


utilizan los conceptos de evolucion biologica [Wikipedia08c]. Los EA actuan sobre una
poblacion de soluciones potenciales aplicando los principios de diversidad de individuos
y supervivencia del mas fuerte para producir mejores aproximaciones a una solucion.
En cada generacion, es creado un nuevo grupo de aproximaciones por el proceso
de seleccion de individuos de acuerdo a su nivel de desempeno en el dominio
del problema, y se cruzan entre si utilizando operadores que imitan los conceptos
geneticos. Este proceso lleva a la evolucion de poblaciones de individuos que estan
mejor adaptados a su ambiente. Sus principales tecnicas son los Algoritmos Geneticos
(Genetic Algorithms GA), las Estrategias Evolutivas (Evolutionsstrategie ES), la
Programacion Evolutiva (Evolutionary Programming EP) y la Programacion Genetica
(Genetic Programming GP). Existen otros algoritmos que pueden ser catalogados
dentro de esta rama, uno de ellos es la Optimizacion por Matrimonio de Abejas
(Marriage in Honey Bees Optimization MBO) [Abbass01], en el cual se simula el
proceso de apareamiento en una colonia de abejas.

Inteligencia de Enjambres: Corresponden a un grupo de tecnicas que estan


basadas en el estudio del comportamiento colectivo en sistemas auto organizados
y descentralizados (distribuidos) [Wikipedia08e]. Estos sistemas estan conformados
tpicamente por una poblacion de agentes computacionales simples capaces de
percibir y modificar su ambiente de manera local. Esta capacidad hace posible la
comunicacion entre los individuos, que detectan los cambios en el ambiente generado
por el comportamiento de sus semejantes [White06]. Aunque normalmente no hay una
estructura centralizada de control que dictamina como los agentes deben comportarse,
las interacciones locales entre los agentes usualmente llevan a la emergencia de un
comportamiento global. Otra caracterstica adicional es la inexistencia de un modelo
explcito del ambiente. Dentro de esta rama las tecnicas principales son la Optimizacion
por Enjambre de Partculas (Particle Swarm Optimization PSO) y la Optimizacion
por Colonia de Hormigas (Ant Colony Optimization ACO). Existen otros algoritmos
que pueden ser catalogados dentro de esta rama como lo es la Optimizacion por
Enjambre de Bacterias (Bacteria Swarm Foraging Optimization BSFO), la Busqueda
por Difusion Estocastica (Stochastic Diffusion Search SDS) y la Colonia Artificial de
Abejas (Artificial Bee Colony ABC).

Al examinar las diferentes caractersticas de cada rama de la EC, podemos establecer una
serie de diferencias entre las tecnicas, siendo la mas notoria la naturaleza centralizada de los

8
1.2 Las Estrategias Evolutivas

EA frente al comportamiento distribuido en SI. Otra diferencia se encuentra en la interaccion


con la funcion objetivo, donde en los EA corresponde al nivel de desempeno y en la SI por
lo general corresponde al ambiente a ser explorado. A su vez, los agentes en EA no pueden
modificar su ambiente, mientras que en SI esta caracterstica es fundamental. Al comprender
mejor cuales son los mecanismos asociados a EA y SI, podemos examinar con detenimiento
las estrategias evolutivas y algunas tecnicas de SI.

1.2. Las Estrategias Evolutivas

Las Estrategias Evolutivas (Evolutionsstrategie ES), creadas en la Universidad Tecnica


de Berln en 1965 por H. P. Schwefel en su tesis de Maestra, corresponden a una de las
principales variantes dentro de los EA. En un principio las ES no fueron pensadas para
calcular mnimos o maximos de funciones estaticas con valores reales con un numero fijo
de variables y sin ruido durante la evaluacion, sino como una serie de reglas para el diseno
y analisis de experimentos consecutivos con ajuste de variables paso a paso manejando un
sistema apropiado [Beyer02].

La optimizacion por ES esta basada en la hipotesis que durante la evolucion biologica, las
leyes de la herencia han sido desarrolladas para una rapida adaptacion filogenetica. Las ES
imitan, en contraste a un algoritmo genetico, los efectos de los procedimientos geneticos
sobre el fenotipo1 . La presuncion para codificar las variables en la realizacion de una ES
son fuerte causalidad (pequenos cambios en la causa producen pequenos cambios en el
efecto). El clmax de la teora de ES es el descubrimiento de la ventana de evolucion: Los
procesos evolutivos toman lugar unicamente dentro de una muy pequena banda en el paso
de mutacion. Este hecho induce la necesidad de una regla para el tamano de los pasos de
auto adaptacion (su principal caracterstica) y mutacion [Rechenberg08].

En general, el objetivo tpico de una ES es optimizar (algunos) objetivos dados, o una funcion
o funciones de calidad, F con respecto a un grupo de variables de decision o parametros de
control y = (y1 , y2 , . . .) llamados parametros objetivo, tales que:

F (y) = opt., y Y (1.1)

En principio, Y puede ser cualquier grupo de estructura de datos finitos pero no


necesariamente de un tamano fijo. Ejemplos de Y son espacios de busqueda reales
N -dimensionales Rn , el espacio de busqueda discreto Zn , el espacio de busqueda binario
1
Manifestacion visible de las caractersticas geneticas del individuo en un determinado ambiente

9
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

Bn , el espacio de busqueda de permutacion Pn , tambien mezclas de diferentes espacios y


subespacios debidos a restricciones.

Las ES operan sobre poblaciones de P individuos a. Un individuo ak con ndice k comprende


no solamente el grupo de parametros especficos (o vector) yk y su valor de la funcion objetivo
Fk = F (yk ) a veces referido como desempeno o fitness, sino tambien a los parametros
endogenos o evolucionables de la estrategia Sk . Por lo tanto, ak se define de acuerdo a la
ecuacion 1.2.

ak = (yk , Sk , Fk ) (1.2)

Los parametros endogenos de la estrategia son una peculiaridad de las ES y son


modificados durante el proceso evolutivo. Estos parametros son utilizados para controlar
ciertas propiedades estadsticas de los operadores geneticos, especialmente el operador de
mutacion.

En un paso generacional de la ES, un grupo de individuos hijos ai son generados a partir del
grupo de individuos padres am , por medio de mecanismos de cruza o mutacion. Usualmente
el tamano de la poblacion individuos hijos Po es diferente al tamano de la poblacion padre
Pp . Los parametros especficos de la estrategia y al igual que (denominado numero de
mezcla y representa el numero de padres involucrados en la creacion de un hijo) son llamados
parametros exogenos de la estrategia, los cuales son mantenidos constantes durante el ciclo
evolutivo.

La manera en que la poblacion hijo es generada se expresa por la notacion ( / +, ).


Existen casos para los cuales no existe recombinacion ( = 1), denotados usualmente como
( + ) y ( , ). Los signos de + y , refieren al caso de seleccion a utilizar. Si se utiliza
la seleccion +, se seleccionan los individuos mas aptos unicamente de la poblacion hijo.
Si se utiliza la seleccion ,, se seleccionan los individuos mas aptos de la poblacion padre y
de la poblacion hijo. Notese como la recombinacion es realizada antes de la seleccion, por lo
cual, cualquier individuo puede transmitir sus caractersticas a la siguiente generacion, si sus
descendientes son aptos. En general, un algoritmo de ES ( / +, ) realiza las operaciones
mostradas en la tabla 1.1.

Las ES desde su concepcion han encontrado multiples aplicaciones en diversos campos


como por ejemplo el diseno y optimizacion de controladores clasicos, difusos y neuronales
[Cordon97, Salomon97, Jin99, Pohlheim99, Hoffmann00, Wong03, Kim06]; la solucion de
problemas de enrutamiento de vehculos [Baran03, Homberger05, Mester07]; el diseno de
filtros [Franzen98, Herrero03]; entre otros.

10
1.3 Inteligencia de enjambres

Inicializar el contador de generaciones g = 0


(0) 
Inicializar la poblacion paterna Pp = a1 , a2 , . . . , a aleatoriamente
REPITA
PARA l = 1 HASTA HACER
(g)
Seleccionar Familia E Pp de tamano aleatoriamente
SI 6= 1
Recombinar los parametros endogenos sl
Recombinar los parametros objetivo yl
Mutar los parametros endogenos
Mutar los parametros objetivo
Calcular el desempeno Fl
bl = (yl , sl , Fl )
SINO
Realizar una copia del padre (bl = arand )
FIN SI
FIN PARA
(g)
Po = (b1 , b2 , . . . , b )
CASO seleccion
(g+1) (g)
( + ): Pp son individuos seleccionados de Po
(g+1) (g) (g)
( , ): Pp son individuos seleccionados de Pp y Po
FIN CASO
Incrementar el contador de generaciones
HASTA cumplir la condicion de terminacion

Tabla 1.1: Algoritmo de la Estrategia Evolutiva ( / +, )

1.3. Inteligencia de enjambres

La seleccion natural tiende a eliminar a las especies con estrategias de busqueda de alimento
poco evolucionadas y favorece la propagacion de aquellas que han sido exitosas en esta
tarea, puesto que es mas probable que disfruten del exito reproductivo. Este principio evolutivo
ha llevado a los cientficos en el campo de la Teora de Foraging a formular una hipotesis
acerca del modelo apropiado para la busqueda de alimento como un proceso de optimizacion:
Un animal buscando alimento toma las medidas necesarias para maximizar la energa
obtenida por unidad de tiempo dedicada a su busqueda, teniendo en cuenta restricciones
presentadas por su propia fisonoma y ambiente. El balance de estas limitaciones permite
obtener una poltica de busqueda de alimento optima, la cual tambien es valida para la
busqueda social donde grupos de animales se comunican para buscar alimento [Liu02].
Existen diversas ventajas de utilizar un mecanismo de comunicacion para realizar una
busqueda cooperativa como lo son [Passino02]:

Un incremento en la probabilidad de que se encuentren nutrientes. Cuando un individuo


encuentra alimento puede informar al grupo su ubicacion, dando origen a un centro de
informacion que ayuda a la supervivencia del colectivo.

Hay un incremento en la capacidad de atacar a una presa mayor.

Permite protegerse de los depredadores.

11
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

Al pensar que un grupo de individuos o enjambre se comporta como una sola criatura viviente
la cual exhibe una Inteligencia Colectiva producto del agrupamiento y la comunicacion,
resultando en una estrategia mas exitosa para todos los individuos del grupo, se pueden
crear modelos de enjambres para ser utilizados como estrategias de optimizacion los cuales
se conocen como Inteligencia de Enjambres. Este termino fue por primera vez utilizado en
[Beni88] para referirse a sistemas roboticos celulares en los cuales un grupo de agentes en
un ambiente, interactuan de acuerdo a una serie de reglas simples.

En esta seccion se describiran los conceptos basicos de estas tecnicas, donde las mas
representativas son la Optimizacion por Enjambres de Partculas (PSO) y la Optimizacion
por Colonia de Hormigas (ACO). Otras tecnicas consideradas de inteligencia de enjambres
son la Optimizacion por Enjambre de Bacterias (BSFO), la Busqueda por Difusion Estocastica
(SDS) y la Colonia Artificial de Abejas (ABC).

1.3.1. Optimizacion por Enjambre de Partculas

La Optimizacion por Enjambre de Partculas (PSO), desarrollada por J. Kennedy y R.


Eberhart [Kennedy95], es un metodo de optimizacion para funciones no lineales en espacios
continuos y discretos [Kennedy97], basado en la simulacion de un modelo social simple del
desplazamiento de cardumenes y bandadas. En un sistema PSO, la busqueda se realiza
utilizando una poblacion de partculas que corresponden a los individuos, cada uno de los
cuales representa una solucion candidata al problema. Las partculas cambian su estado al
volar a traves del espacio de busqueda hasta que se ha encontrado un estado relativamente
estable. Un sistema PSO combina un modelo unicamente social, el cual sugiere que los
individuos ignoran su propia experiencia y ajustan su conocimiento de acuerdo a las creencias
exitosas de los individuos en la vecindad; y un modelo unicamente cognitivo, el cual trata
a los individuos como seres aislados. Una partcula cambia de posicion utilizando estos dos
modelos [Ozcan99].

Dentro de PSO, la iesima partcula es tratada como un punto dentro de un espacio


N dimensional representada por Xi = (xi1 , xi2 , . . . , xiN ). La mejor posicion encontrada por la
partcula anteriormente, o sea aquella donde se obtuvo el mejor valor en la funcion de costo,
es representada como pi = (pi1 , pi2 , . . . , piN ). La mejor posicion encontrada por el total de la
poblacion es representada por el smbolo g. La rata de cambio de posicion (velocidad) para
una partcula i es representada como vi = (vi1 , vi2 , . . . , viN ). Las partculas son manipuladas
de acuerdo a las ecuaciones:

vin (t + 1) = w vin (t) + c1 R1 (pin xin (t)) + c2 R2 (pgn xin (t)) (1.3)

12
1.3 Inteligencia de enjambres

Inicializar la poblacion ubicandola aleatoriamente


MIENTRAS no se cumpla el criterio de terminacion
PARA i = 1 HASTA n HACER
Calcular el costo de la partcula Ji
SI Ji < pid
pid = Ji
FIN SI
SI Ji < pgd
pgd = Ji
FIN SI
Calcular la nueva velocidad de i con la ecuacion 1.3
Calcular la nueva posicion de i con la ecuacion 1.4
FIN PARA
FIN MIENTRAS

Tabla 1.2: Optimizacion por Enjambre de Partculas

xin (t + 1) = xin (t) + vin (t + 1) (1.4)

donde c1 y c2 son dos constantes positivas, R1 y R2 son dos numeros aleatorios en el rango
de [0 1], y w es el peso inercial. La ecuacion 1.3 es utilizada para calcular la nueva velocidad
de la partcula de acuerdo a su velocidad anterior y las distancias de su posicion actual
a su mejor posicion y la mejor posicion dentro del grupo. Luego la partcula se desplaza
hacia una nueva posicion de acuerdo a la ecuacion 1.4. El peso inercial w, incluido a partir
de [Shi98], es utilizado para controlar el impacto de las velocidades previas en la velocidad
actual, influenciando el cambio entre las habilidades de exploracion global (rango amplio)
o local (rango corto) de las partculas. Un peso inercial mayor facilita la exploracion global
para buscar nuevas areas mientras que un peso inercial menor tiende a facilitar exploracion
local para sintonizar finamente el area de busqueda actual. Una correcta seleccion del peso
inercial puede proveer un balance entre las habilidades de busqueda local y global, por lo
tanto requiriendo menores iteraciones para encontrar el punto optimo. En general el algoritmo
realiza las operaciones mostradas en la tabla 1.2.

Conceptualmente el algoritmo de PSO es bastante simple. Sin embargo, existe interes en


encontrar maneras de mejorar el desempeno del algoritmo por medio de varias tecnicas.
La primera modificacion se presenta en [Eberhart95] donde se explora el uso de vecindad,
al seleccionar en lugar de la mejor posicion global pg , la mejor posicion de las m
partculas mas cercanas pl . En [Clerc99], se hace uso de un factor de constriccion K
que ayuda a la convergencia del algoritmo PSO al evitar que las partculas detengan
su movimiento. En [Lvbjerg01, Lvbjerg02], se combinan los conceptos de PSO con
la reproduccion encontrada en Algoritmos Geneticos, subpoblaciones y autoorganizacion
critica (SelfOrganized Criticality - SOC), como metodos para agregar diversidad a la
poblacion. En [Zhang03], se incluye un operador de evolucion diferencial, el cual provee una
mutacion de tipo gausiana sobre pi , dando origen a la variacion DEPSO. En [Monson04],
se define el KSwarm, en el cual se utiliza un filtro Kalman para actualizar las posiciones

13
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

de las partculas. En [Poli05], se explora la posibilidad de evolucionar la fuerza optima


generando ecuaciones para controlar las partculas por medio de programacion genetica.
En [Grosan05], se presenta la variacion con vecindades independientes (INPSO), donde se
establecen subenjambres independientes a diferencia de la definicion anterior de vecindad.
En [Tillett05], se introducen conceptos de seleccion natural en la variacion DPSO, donde
se hace uso de subenjambres independientes, los cuales son reproducidos o eliminados
dependiendo de su desempeno global. En [Liu05], se presentan las variaciones con
turbulencia (TPSO) y con turbulencia adaptada difusamente (FATPSO), donde la turbulencia
evita la rapida convergencia al penalizar la reduccion drastica de la velocidad de las partculas.
En [Leontitsis06], se incluye el concepto de repelencia del peor punto. En [Yisu07], se
presenta las variaciones con vector de distribucion (DVPSO), con habilidad de cruza (COPSO)
y adaptable al entorno (LAPSO).

Una modificacion de interes particular es el EPSO [Miranda02b, Miranda02a], el cual utiliza


una distribucion gaussiana sobre los parametros de inercia (w), individual (c1 ) y social (c2 ),
considerando cada partcula individualmente. Este algoritmo no considera como parametro
los lmites de la velocidad, por lo tanto, no realiza operaciones sobre este parametro.

Otros campos de investigacion sobre el algoritmo PSO corresponden al analisis matematico


o estadstico para conocer mejor el comportamiento del sistema [Ozcan99, Clerc02,
Bartz-Beielstein04]. Tambien se buscan nuevas aplicaciones del algoritmo donde se busca
obtener mejores resultados que con otros metodos de optimizacion. Algunos ejemplos son
el entrenamiento de redes neuronales reemplazando el algoritmo de entrenamiento por
retropropagacion (backpropagation) en redes tipo perceptron multicapa (Multilayer Perceptron
MLP) [Salerno97, El-Gallad01] y de Producto por Unidad (Product Unit Neural Network
PUNN) [Ismail99]; la sintonizacion de controladores PID [Easter Selvan03], robustos con
ley H2 /H [Krohling02], neuronales [v.E.Conradie02] y predictivos [Yuan06]; la optimizacion
de funciones de pertenencia en un conjunto difuso [Esmin02]; la identificacion de modelos
dinamicos [Voss02]; la identificacion de grupos o clustering para la clasificacion de imagenes
[Omran05] y otros problemas de optimizacion como el control de la Potencia Reactiva y Voltaje
[Yoshida01].

1.3.2. Optimizacion por Colonia de Hormigas

La Optimizacion por Colonia de Hormigas (ACO) es una familia de algoritmos derivados


del trabajo realizado por M. Dorigo [Dorigo91a], basada en el comportamiento social de
las hormigas, las cuales usan una forma de comunicacion basada en sustancias qumicas
denominadas feromonas. Estas sustancias, depositadas por la hormiga al avanzar por un
camino, ejercen una accion sobre la decision de las hormigas precedentes, las cuales
escogen el camino que posea una mayor concentracion de sustancia, permitiendo que las

14
1.3 Inteligencia de enjambres

hormigas encuentren la ubicacion de las fuentes de alimento as como su nido. Se ha


demostrado que los rastros de feromona permiten lentamente la optimizacion distribuida en
la cual cada agente sencillo realiza una pequena contribucion en la busqueda de la mejor
solucion.

En los algoritmos ACO cada agente construye una solucion o parte de esta, comenzando
de un estado inicial y desplazandose a traves de una secuencia finita de estados vecinos,
cuyo criterio de vecindad es dependiente del problema, haciendo uso de dos fuentes de
informacion: la visibilidad y los rastros de feromona . La probabilidad de que la kesima
hormiga se desplace del nodo i al nodo j esta dado por la ecuacion 1.5.


[i j (t)] [i j ]


, si j Jik
pkij (t) = lJ k [il (t)] [il ]
i
(1.5)
/ Jik

0 si j

siendo los nodos Jik los estados validos. A su vez, los rastros son modificados para cambiar
la representacion del problema, que utilizaran las otras hormigas para tomar sus decisiones
por medio de la ecuacion 1.6.

(t + 1) = (t) + (1 ) (t,t + 1) (1.6)

donde es el coeficiente de evaporacion de la feromona, usado para evitar la rapida


convergencia de las hormigas hacia una region del espacio de busqueda. Entonces la
feromona se convierte en una memoria local compartida de largo termino que influencia
las decisiones subsecuentes de las hormigas. Las hormigas pueden actuar concurrente e
independientemente, mostrando un comportamiento cooperativo que usa la estigmergia1
como medio de comunicacion. Aunque cada una de las hormigas es capaz de encontrar
una solucion, probablemente inadecuada, las mejores soluciones son encontradas como
el resultado de la cooperacion global entre todos los agentes de la colonia, como una
caracterstica inesperada de la interaccion cooperativa de los agentes.

Otras caractersticas usualmente incluidas dentro de un sistema ACO son el balance entre
las caractersticas aleatorias y la severidad en la toma de decisiones (exploracion/explotacion
del conocimiento); y estrategias de conocimiento global denominadas daemon actions. Las
caractersticas de un algoritmo ACO pueden necesitar alguna clase de sincronizacion,
usualmente obtenida por una programacion secuencial, donde el conocimiento global es
facilmente accesible en cualquier instante. En general, un algoritmo de optimizacion por
colonia de hormigas, realiza las operaciones mostradas en la tabla 1.3.
1
Forma de comunicacion indirecta por medio de la modificacion del ambiente

15
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

PARA cada arco (i, j)


Inicializar la feromona i j (0) = 0
FIN PARA
PARA k = 1 HASTA m HACER
Ubicar la k-esima hormiga en un nodo aleatorio
FIN PARA
Obtener una solucion inicial Smin con costo Cmin
PARA t = 1 HASTA tmax HACER
PARA k = 1 HASTA m HACER
PARA j = 1 HASTA n 1 HACER
/*Construccion de la solucion Sk (t) Recorrido*/
Aplicar la regla de construccion/modificacion en funcion de y
FIN PARA
Calcular el costo Ck (t) de la solucion Sk (t)
SI Ck (t) < Cmin
Cmin = Ck (t) y Smin = Sk (t)
FIN SI
FIN PARA
PARA cada arco (i, j)
Actualizar los rastros de feromona de acuerdo a la regla de actualizacion
FIN PARA
FIN PARA

Tabla 1.3: Optimizacion por Colonia de Hormigas

Las caractersticas de este grupo de algoritmos hacen que sean utiles en problemas
estocasticos distribuidos donde la presencia de fuentes exogenas produce dinamicas en la
representacion del problema. Por ejemplo, muchos problemas relacionados con redes de
comunicacion y transporte son intrnsecamente distribuidos y dinamicos, y a menudo es
imposible obtener un modelo exacto de la variabilidad subyacente. Por el contrario, el uso
de la estigmergia como unico metodo de comunicacion entre las hormigas, los algoritmos
ACO pueden presentar dificultades en problemas donde cada estado tiene un gran tamano
de vecindad, debido a sus caractersticas locales. De hecho, una hormiga que visita un estado
con un gran tamano de vecindad tiene un enorme numero de posibles movimientos entre los
cuales elegir, siendo la probabilidad de seleccion de cada estado muy pequena, haciendo
poco probable que varias hormigas visiten el mismo estado. Esta situacion hace que la
diferencia entre usar o no el rastro de feromona, en estos casos, sea muy pequena o ninguna.

Los algoritmos ACO tienen una naturaleza discreta, lo cual los hace utiles para la solucion de
problemas de optimizacion combinatoria. De hecho, el primer algoritmo basico de hormigas
desarrollado, el Ant System (AS) [Dorigo91a, Dorigo91b, Colorni91, Colorni92], tuvo su
primera aplicacion en la solucion del problema del viajero (Traveling Salesman Problem
TSP). En estos primeros trabajos ya se proponen variaciones al concepto de feromona,
derivandose tres algoritmos del AS, el Ant Quantity, el Ant Density y el Ant Cycle. Otros
problemas solucionados por medio del AS son la version asimetrica del TSP, el Quadratic
Assigment Problem (QAP) y el Jobshop Scheduling Problem (JSP) [Dorigo96b]. Otros
algoritmos ACO son el ANTQ [Gambardella95, Dorigo96a] basado en aprendizaje por
refuerzo; el Ant Colony System (ACS) [Dorigo97] el cual difiere del AS al proveer una
regla de transicion de estados que balancea la exploracion/explotacion del conocimiento, la

16
1.3 Inteligencia de enjambres

actualizacion global es realizada sobre el mejor recorrido y la actualizacion local es realizada


durante la exploracion del espacio; el mnmax Ant System (MMAS) [Stutzle97] donde la
feromona esta delimitada en un rango para evitar el estancamiento; el Rank Based Ant
System (ASrank ) [Bullnheimer97] donde la actualizacion de la feromona es realizada por
las m mejores hormigas; el BestWorst Ant System (BWAS) [Cordon00] el cual considera
la actualizacion positiva para la mejor hormiga y negativa para la peor, la reinicializacion
de la busqueda cuando ocurre estancamiento y la inclusion de mutaciones a la matriz de
feromona para inducir variabilidad. Otras variaciones en el concepto de la actualizacion de
la feromona se pueden encontrar en [Meuleau00] donde se usa una regla derivada del
descenso estocastico del gradiente (Stochastic Gradient Descent SGD); en [Rubinstein01]
se utiliza el concepto de entropa cruzada, el cual es retomado en [Heegaard04] de una
manera distribuida.

Para su uso sobre espacios continuos se requiere un tratamiento diferente del problema
donde la vecindad no sea un impedimento. En [Bilchev95] se presenta una primera
aproximacion donde se define un nido del cual parten los agentes a explorar el espacio.
En [Yan-jun03] se presenta el Adaptive Ant Colony Algorithm (AACA), un algoritmo que utiliza
un arbol binario para mapear un espacio continuo, obteniendose una cadena binaria que
representa la solucion de manera similar a un algoritmo genetico. En [Tsutsui04] se presenta
el sistema de agregacion de feromona (Aggregation Pheromone System APS) donde la
feromona es una funcion de densidad continua.

1.3.3. Optimizacion por Enjambre de Bacterias

La Optimizacion por Enjambre de Bacterias representa una aproximacion diferente a


la busqueda de valores optimos en funciones no lineales desarrollado por K. Passino
[Passino00], basado en el comportamiento quimiotactico de la E. Coli. Si bien utilizar la
quimiotaxis como modelo para optimizacion se propuso por primera vez en [Bremermann74]
y se ha utilizando en trabajos como [Leiviska06], el trabajo de Passino incluyo algunas
modificaciones como la reproduccion y la dispersion de los agentes.

La E. Coli es tal vez el microorganismo mas comprendido, ya que su comportamiento y


estructura genetica estan bien estudiados. Esta consta de una capsula que incluye sus
organos, y flagelos que utiliza para su locomocion; posee capacidad de reproducirse por
division y tambien es capaz de intercambiar informacion genetica con sus congeneres.
Ademas, es capaz de detectar alimento y evitar sustancias nocivas, efectuando un tipo de
busqueda aleatoria, basado en dos estados de locomocion, el desplazamiento y el giro. La
decision de permanecer en uno de estos dos estados se debe a la concentracion de nutrientes
o sustancias nocivas en el medio. Este comportamiento se denomina quimiotaxis.

17
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

En este algoritmo, descrito en detalle en [Liu02, Passino02], se busca obtener el mnimo


de una funcion J ( ) , Rn , cuando se desconoce su gradiente. Suponiendo que es la
posicion de la bacteria y J ( ) representa la ubicacion de los nutrientes y sustancias nocivas,
as J < 0 representa un incremento en la concentracion de nutrientes, J = 0 representa
un medio neutro y J > 0 representa un incremento en la presencia de sustancias nocivas.
Sea entonces:

P ( j, k, l) = i ( j, k, l) ki = 1, 2, . . . S (1.7)

las posiciones de cada miembro en la poblacion S de bacterias al j-esimo paso quimiotactico,


k-esimo paso reproductivo el l -esimo evento de eliminacion dispersion. Sea J(i, j, k, l) el
costo de la ubicacion de la i-esima bacteria i ( j, k, l) R p . Sea Nc el tiempo de vida de una
bacteria medido en pasos quimiotacticos. Para representar un giro, se genera una unidad de
longitud en una direccion aleatoria ( j), por lo tanto se tiene que:

i ( j + 1, k, l) = i ( j, k, l) +C (i) ( j) (1.8)

donde C(i) es el tamano del paso a tomar en la direccion especificada por el giro. Si en
i ( j + 1, k, l), el valor de J (i, j + 1, k, l) es menor que el obtenido en i ( j, k, l), entonces un
nuevo paso quimiotactico es tomado hasta un numero maximo Ns.

Adicionalmente, las bacterias mantienen comunicacion haciendo uso de senales qumicas


que afectan el comportamiento quimiotactico del enjambre, creando un ambiente
cooperativo. A estas senales, denominadas atrayentes repelentes, se las representa por
Jcci ( , i ( j, k, l)), para la i-esima bacteria. Sea dat y wat la profundidad y el ancho del
atrayente, hre y wre la altitud y el ancho del repelente. La profundidad y el ancho de los
atrayentes es relativamente pequeno a la concentracion de nutrientes representados. Cada
efecto atrayente y repelente es adicionado en la funcion de costo total de la bacteria como la
suma de todos los efectos de una bacteria con todos los agentes de la poblacion. Entonces:

S
Jcc ( , P (i, j, k)) = Jcci ( , i ( j, k, l)) (1.9)
i=1
S 2 S 2
= hre ewre m=1 (m m ) dat ewat m=1 (m m )
p i p i

i=1 i=1

De acuerdo a la distribucion de los agentes, se puede decir que entre mas lejos se encuentre
entre si, el efecto de las senales sera menor y por lo tanto no intentaran agruparse. Lo

18
1.3 Inteligencia de enjambres

Inicializar la poblacion aleatoriamente


Definir para cada individuo un C (i)
PARA l = 1 HASTA Ned HACER
PARA k = 1 HASTA Nre HACER
PARA j = 1 HASTA Nc HACER
PARA i = 1 HASTA S HACER
Calcular el J (i, j, k, l) incluyendo Jcc
Jlast = J ( )
Calcular ( j)
Realizar el desplazamiento (ecuacion 1.7)
Calcular el nuevo costo J (i, j + 1, k, l)
m=0
MIENTRAS m < Ns
m = m+1
SI J (i, j + 1, k, l) < Jlast
Jlast = J (i, j + 1, k, l)
Realizar el desplazamiento (ecuacion 1.7)
Calcular el nuevo costo J (i, j + 1, k, l)
SINO
m = Ns
FIN SI
FIN MIENTRAS
FIN PARA
FIN PARA
Calcular la salud de cada bacteria
Copiar las Sr bacterias mas saludables
Eliminar las bacterias inadecuadas
FIN PARA
Dispersar/Eliminar con una probabilidad ped
FIN PARA

Tabla 1.4: Optimizacion por Enjambre de Bacterias

contrario ocurre cuando se encuentran muy cerca y por lo tanto, los agentes se atraen
para formar grupos cooperativos. Debido al movimiento de todas las bacterias, la funcion
Jcc ( , p ( j, k, l)) es variante en el tiempo. Las bacterias, en efecto, no solo intentaran buscar
zonas con buenos nutrientes, evitando sustancias nocivas, sino que ademas intentaran
moverse hacia otras bacterias, sin acercarse tanto entre si. Por lo tanto la funcion Jcc ( , P)
deforma dinamicamente la superficie de busqueda a medida que las bacterias se mueven.

Despues de Nc pasos quimiotacticos se realiza un paso reproductivo, siendo Nre el numero de


pasos reproductivos. Durante la reproduccion, las bacterias mas saludables (las que poseen
un menor costo acumulado en su vida) se dividen y se eliminan el mismo numero de bacterias
no saludables, as obteniendo una poblacion de tamano constante. Luego se realiza un
eventos de dispersion eliminacion Ned , en el cual cada bacteria en la poblacion es sujeta a la
reubicacion en una nueva posicion aleatoria con una probabilidad ped . En general el algoritmo
realiza las operaciones mostradas en la tabla 1.4.

Este algoritmo se ha aplicado con exito en la sintonizacion de controladores adaptativos


[Passino02], la sintonizacion de controladores PID [Kim05] y la regulacion de temperatura en
superficies [Alfonso07a]. Otros trabajos relacionados son el estudio de estabilidad realizados
en [Gazi03, Gazi04] y la hibridizacion con algoritmos geneticos [Kim07] para mejorar su

19
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

desempeno. Otro algoritmo que utiliza el comportamiento quimiotactico de las bacterias se


presenta en [Muller02].

1.3.4. Busqueda por Difusion Estocastica

La busqueda por difusion estocastica es otro metodo de busqueda generico basado en


poblaciones creado por M. Bishop en 1989 [Bishop89a, Bishop89b], inspirado por el
metodo de transformacion Hinton [Hinton81, Rumelhart86, Bishop92], como una tecnica de
reconocimiento de patrones capaz de resolver el problema de equivalencia de estimulo:
la habilidad de reconocer un patron independiente de sus potenciales distorsiones o
transformaciones en el espacio de busqueda. En SDS, los agentes realizan evaluaciones
parciales de una hipotesis las cuales comparten a traves de una comunicacion directa uno a
uno.

SDS esta basada en el denominado Juego del Restaurante [De Meyer03], donde un grupo
de personas asisten a una conferencia en una ciudad desconocida y cada noche deben
encontrar un lugar para comer. Puesto que hay una gran variedad de restaurantes y cada uno
ofrece una variedad de platos, el grupo se encuentra ante la dificultad de encontrar el mejor
restaurante, o sea aquel donde el mayor numero de personas esten satisfechas comiendo.
Puesto que una busqueda paralela exhaustiva tomara demasiado tiempo para obtener
informacion valida, se instituye una poltica diferente. Cada individuo propone una hipotesis
correspondiente al mejor restaurante en la ciudad. Cada noche los individuos prueban su
hipotesis al comer en el sitio un plato al azar. A la manana siguiente cada individuo que no
obtuvo una buena experiencia le pregunta a un colega al azar cual fue su experiencia. Si la
informacion recibida es satisfactoria el individuo selecciona al restaurante como su favorito.
De otra manera, selecciona un restaurante al azar. Usando esta estrategia, se ha encontrado
que rapidamente un numero significativo de individuos se congregan alrededor de la mejor
solucion. En terminos generales, el algoritmo se muestra en la tabla 1.5.

Por medio de la iteracion de fases de prueba y difusion, los agentes estocasticamente


exploran todo el espacio de busqueda. Sin embargo, puesto que las pruebas se realizan
con mayor frecuencia sobre buenas soluciones que en regiones con informacion irrelevante,
un agente tendera a gastar una mayor cantidad de tiempo en regiones adecuadas y al mismo
tiempo recluta mas agentes, los cuales reclutan aun mas. Las soluciones candidatas de alta
calidad pueden ser identificadas por la concentracion de agentes con la misma hipotesis.

La ventaja principal que presenta SDS es su capacidad de salir de mnimos locales. Esto se
logra mediante la salida probabilstica de la evaluacion parcial de hipotesis en combinacion
con la reubicacion de recursos (en este caso los agentes) por medio de mecanismos de
reclutamiento estocastico. La evaluacion parcial de la hipotesis permite al agente formarse

20
1.3 Inteligencia de enjambres

Inicializar la poblacion generando una hipotesis


aleatoria
REPITA
Evaluar la evidencia de la hipotesis /*Etapa de prueba*/
SI hipotesis comprobada
Activar el agente
SINO
Desactivar el agente
FIN SI
SI agente inactivo /*Etapa de difusion*/
Seleccionar un agente al azar
SI el agente seleccionado es activo
Recibir hipotesis apropiada
SINO
Generar una hipotesis aleatoria
FIN SI
FIN SI
HASTA cumplir el criterio de terminacion

Tabla 1.5: Busqueda por Difusion Estocastica

rapidamente su opinion acerca de la calidad de la solucion puesta a prueba sin una busqueda
exhaustiva (e.g. probando todos los platos disponibles en un restaurante).

A diferencia de muchas tecnicas de busqueda inspiradas en la naturaleza, existe un trabajo


matematico muy profundo acerca del comportamiento y las propiedades basicas de SDS, de
tal manera que es un algoritmo muy bien comprendido. Entre las caractersticas estudiadas
estan la convergencia a la solucion global optima [Bishop92, Nasuto98], convergencia en
el tiempo incrementado linealmente con el tamano del espacio de busqueda [Nasuto99b],
dinamicas de asignacion de recursos [Bishop99] y robustez [Myatt04]. En el contexto de
clasificacion de patrones, el algoritmo es robusto a distorsion por ruido y a multiples instancias
del objetivo [Nasuto99a].

La tecnica ha sido utilizada en una variedad de problemas de la vida real. La Red Hbrida
de Difusion Estocastica (Hybrid Stochastic Diffusion Network HSDN), una combinacion de
SDS con una red neuronal, fue usada para localizar caractersticas oculares en imagenes
faciales humanas [Bishop92] y para el seguimiento de labios en vdeos [Grech-Cini95]. En
[Beattie98] SDS fue utilizado como metodo de autolocalizacion de una silla de ruedas
autonomas, extendiendo el algoritmo original para proveer soluciones mas rapidas en
espacios de busqueda mayores por medio de la Red Enfocada de Difusion Estocastica
(Focused Stochastic Diffusion Network FSDN). Otros usos son la busqueda de texto
[Bishop89a] y la seleccion de sitios para redes inalambricas [Whitaker02].

21
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

1.3.5. Colonias de Abejas

A diferencia de otras tecnicas de inteligencia de enjambres, donde se propuso una


metaheurstica y una serie de algoritmos se acogieron a ella, los algoritmos basados en
abejas no cuentan con el mismo nivel de agrupamiento. Prueba de ello es la variedad de
algoritmos que han surgido en los ultimos anos, desde la Colonia Artificial de Abejas (Artificial
Bee Colony ABC) [Karaboga05], pasando por la Optimizacion por Colonia de Abejas
(Bee Colony Optimization BCO) [Teodorovic05] y el Algoritmo Bees [Pham06a], hasta la
Optimizacion por Busqueda de Nectar por Abejas (Bee Nectar Search Optimization BNSO)
[Alfonso07b] y el Algoritmo de Colmena de Abejas Artificiales (Artificial Bee Hive Algorithm
ABHA) [Munoz08]. Por ahora, el uso de estos algoritmos no es extensivo y la bibliografa es
limitada.

Una primera metaheurstica propuesta dentro de los algoritmos de abejas corresponde a


BCO. Sus autores proponen un marco de referencia, donde las abejas artificiales realizan
movimientos de construccion y seleccion de soluciones. En el proceso de decision, se asume
que cada abeja puede obtener informacion acerca de la calidad de las soluciones generadas
por la poblacion. De esta manera, las abejas intercambian informacion acerca de la calidad de
las soluciones parciales creadas. Basandose en la calidad, cada abeja decide si abandonar
o no su solucion parcial y convertirse en un seguidor no comprometido, si continuar con la
expansion de su solucion parcial sin reclutar a otras companeras, o si danza y recluta a
otras companeras antes de regresar a su solucion parcial. Dependiendo de la cualidad de las
soluciones parciales generadas, cada abeja posee un nivel de lealtad hacia la solucion parcial
descubierta. El proceso iterativo, permite que las soluciones parciales se complementen hasta
obtener una solucion completa factible.

Como ejemplo de los algoritmos de abejas se presenta el algoritmo ABHA. Este algoritmo
permite realizar busquedas sobre espacios continuos, basados en el modelo orientado
al individuo desarrollado en [deVries98], donde se definen una serie de reglas de
comportamiento para cada agente que determinan las acciones a realizarse, incluyendo
algunas adaptaciones no consideradas en el modelo biologico para incrementar el
desempeno en la busqueda de mejores soluciones. En terminos generales, el algoritmo se
muestra en la tabla 1.6.

Pese a ser relativamente recientes, los algoritmos de abejas ya presentan alguna variedad de
aplicaciones, principalmente propuestas por sus creadores. Algunas de estas son la solucion
del problema del viajante [Lucic03], el entrenamiento de redes neuronales [Pham06b], la
sintonizacion de controladores difusos [Pham07b], la optimizacion de maquinas de soporte
vectorial [Pham07d], el diseno de celdas de manufactura [Pham07a], el diseno de uniones
por soldadura [Pham07c] y la regulacion de temperatura sobre una superficie [Alfonso07a].

22
1.4 Conclusiones

Inicialice la poblacion
PARA i = 1 HASTA I HACER
Calcule las probabilidades
SI es experimentada Y su informacion es valida
Incremente la tendencia de abandono
Deje el nido
FIN
SI no hay danzas disponibles
SI puede iniciar una busqueda aleatoria
Ubique las abejas en posiciones aleatorias
Deje el nido
FIN
SI abandono la fuente
Olvide la fuente
Mantengase en el nido
FIN
SI NO
Calcule la duracion de la danza
Si sigue una danza
Seleccione una danza por ruleta
Agregue ruido a la informacion
Deje el nido
SI NO
Incremente la tendencia de abandono
FIN
SI puede iniciar una busqueda aleatoria
Ubique las abejas en posiciones aleatorias
Deje el nido
FIN
FIN
Calcule el costo actual
SI puede seguir buscando
SI la direccion es valida
Incremente la posicion
SINO
Cambie de direccion
Incremente la posicion
FIN
SINO
Determine si la fuente es valida
FIN
Actualice el umbral
Actualice la memoria
END

Tabla 1.6: Algoritmo de Colmena de Abejas Artificiales

1.4. Conclusiones

La SI comprende una amplia variedad de tecnicas auto organizadas y distribuidas que


comparten caractersticas comunes como la existencia de una poblacion de agentes
computacionales simples capaces de percibir y modificar su ambiente de manera local, lo que
hace posible la interaccion entre los individuos; la inexistencia de una estructura centralizada
de control que dictamina como los agentes deben comportarse o de un modelo explcito del
ambiente. El comportamiento global, por tanto, es producto de las interacciones locales entre

23
1. COMPUTACION EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS

los agentes al contrario de un conocimiento global.

Es notoria la diferencia entre la SI y la otra rama dentro de la EC, los EA, siendo las mas
importantes la naturaleza centralizada de los EA frente al comportamiento distribuido en SI;
la interaccion con la funcion objetivo, donde en los EA corresponde al nivel de desempeno y
en la SI por lo general corresponde al ambiente a ser explorado; y la capacidad de modificar
su ambiente de los algoritmos de SI.

Las aplicaciones de SI en la actualidad son muy diversas, desde las redes de comunicacion,
los sistemas de control automatico, la solucion de problemas combinatorios, el enrutamiento
de vehculos, entre otros. En cada momento se encuentran nuevas aplicaciones y se
desarrollan variaciones que mejoran el desempeno de los algoritmos como la hibridizacion
con los EA. Al mismo tiempo se hace necesario el estudio profundo de las cualidades
de estabilidad y convergencia de estos metodos. Ademas, el estudio detallado de algunos
biologos permite encontrar nuevos modelos que pueden llevar a proponer nuevos algoritmos
de SI. En este ultimo caso, el desarrollo de las tecnicas de SI implica el trabajo conjunto de
disciplinas tan diversas como las ciencias biologicas, sociales, computacionales, la ingeniera,
la filosofa, entre otras; siendo un paradigma bastante rico para su exploracion por su mezcla
de naturaleza y computacion [Nunez de Castro07]. Existen aun muchas sociedades naturales
que pueden ser simuladas o emuladas en computadores y los frutos de estas exploraciones
se convierten en nuevas soluciones tecnologicas a problemas clasicos o recientes, y su
completo potencial aun esta por alcanzarse.

Con el desarrollo de sistemas de computo de mayor poder, la aparicion de nuevos problemas


complejos y la colaboracion entre cientficos de diversas areas, el futuro de las tecnicas de
inteligencia artificial es bastante prometedor.

24
CAPITULO 2

Evolucion de enjambres

En el captulo anterior se examino la variedad de tecnicas que constituyen la SI y las


caractersticas generales que permiten agruparlas en esta familia. Sin embargo, existen
diferencias que hacen diferente su aplicabilidad, en particular el espacio de busqueda en el
cual se desempenan. Debido al enfoque requerido para este trabajo de desarrollar algoritmos
para la sintonizacion de sistemas de control, se requiere de tecnicas que realicen busquedas
en espacios continuos, ya que los parametros en un sistema de control son numeros reales.
Por esta razon, para este trabajo se seleccionaron los algoritmos de Optimizacion por
Enjambre de Bacterias y de Optimizacion por Enjambre de Partculas.

En este captulo se presentan los algoritmos de Optimizacion por Enjambre Evolutivo de


Bacterias (Evolutive Bacteria Swarm Foraging Optimization EvBSFO) y Optimizacion
por Enjambre Evolutivo de Partculas (Evolutive Particle Swarm Optimization EvPSO),
resultantes de modificar los algoritmos BSFO y PSO con una Estrategia Evolutiva (1, )
encargada de sintonizar sus parametros. En la seccion 2.1 se describen los conceptos de
evolucion de enjambres y los algoritmos EvBSFO y EvPSO. A continuacion, en la seccion 2.2
se realiza un analisis de desempeno de los algoritmos evolutivos frente a otros algoritmos de
SI. Finalmente en la seccion 2.3 se presentan algunas conclusiones del captulo.

25
2. EVOLUCION DE ENJAMBRES

2.1. Implementacion de Enjambres Evolutivos

Al escoger un algoritmo heurstico para solucionar un problema de optimizacion, la seleccion


de los parametros del algoritmo corresponde a ubicar un punto dentro del espacio N
dimensional de parametros, cuyo valor en la funcion de desempeno del algoritmo G sea el
mejor posible. Esta seleccion es una tarea compleja ya que se desconoce de una manera
determinstica la relacion directa entre el desempeno del algoritmo, los valores de los
parametros y la funcion objetivo J . De hecho, este problema puede ser tan o mas complejo
que la solucion del problema de optimizacion en s, siendo necesario recurrir a formas mas
simples, donde algunas de las mas comunes son la prueba sistematica de parametros o por
ensayo y error, las cuales presentan, entre otras, las siguientes limitaciones [Eiben99]:

Los parametros no son independientes y probar todas las posibles combinaciones


sistematicamente es practicamente imposible.

El proceso de sintonizacion requiere tiempo, inclusive si los parametros son


optimizados uno a uno, sin importar sus interacciones.

Para un problema determinado los parametros seleccionados no son necesariamente


optimos, inclusive si el esfuerzo por sintonizarlos fue significativo.

Existen varios intentos de generar parametros que se comporten de manera adecuada de


forma general, o sea que los valores recomendados pueden ser aplicados a una gran
variedad de problemas de optimizacion. En la actualidad se reconoce que cada problema
requiere un grupo especfico de parametros para su correcto desempeno, por lo tanto, la
batalla por encontrar parametros generales optimos se considera perdida a priori [Eiben99],
puesto que no considera la naturaleza dinamica del proceso de busqueda. En general, se
ha aceptado la necesidad de que los parametros cambien en funcion del tiempo teniendo
en cuenta el desempeno general del algoritmo, donde este mecanismo se conoce como
control de parametros, que considera la modificacion de los parametros del sistema durante
la solucion del problema principal, ya sea por reglas determinsticas sin realimentacion
o por metodos adaptativos o evolutivos (autoadaptativos) que poseen realimentacion. La
implementacion de este ultimo tipo de metodo requiere conocer de manera directa la funcion
de desempeno G o tener una funcion que pueda llevar a cabo la medicion del desempeno y
realizar una busqueda sobre esta funcion en el espacio de parametros, convirtiendose en un
segundo problema de optimizacion, afectado por los resultados del primer problema.

Para implementar un enjambre autoadaptativo, se utilizara como base los conceptos de


control de parametros existentes en ES, para lo cual se requiere realizar algunas definiciones.
Como primer paso se establece que el sistema de enjambre corresponde a un conjunto de

26
2.1 Implementacion de Enjambres Evolutivos

poblaciones cada una compuesta por individuos. Todos los individuos de una poblacion
codifican el mismo conjunto de parametros del algoritmo que se esta evolucionando, donde
la diferencia entre los individuos de la poblacion corresponde a la posicion inicial la cual se
escoge de manera aleatoria. Cada poblacion es sometida a la modificacion de sus parametros
por medio de operadores evolutivos como la cruza y la mutacion, para obtener poblaciones
hijas, las cuales buscan una nueva solucion al problema principal de optimizacion, al modificar
los valores de por medio de las reglas definidas por enjambre. Para definir el desempeno de
las poblaciones se define una funcion G para la l esima poblacion en el iesimo instante
como el promedio del desempeno del kesimo individuo segun la ecuacion 2.1. Luego de
solucionar tanto el primer como segundo problema de optimizacion, se seleccionan las
poblaciones con mejor desempeno entre las poblaciones hijas que conformaran la proxima
generacion.

k=1 J (l, k, i, )
G (l, i) = (2.1)

Al igual que ES, es necesario modificar los parametros que dominan la mutacion de los
individuos. Para este proceso se hace uso de la regla de 1/5 [Rechenberg73], la cual propone
que si el desempeno general de la generacion actual ha sido mejor que el desempeno general
anterior, la poblacion se ha desplazado a una mejor posicion en el espacio de busqueda, por lo
tanto, se puede disminuir la fuerza de las mutaciones (la desviacion estandar de la distribucion
normal de la mutacion) por un factor de 0,82, de lo contrario, el algoritmo se ha desplazado
a una region menos favorable, por lo tanto, se incrementa la fuerza de las mutaciones por un
factor de 1,22.

Estas reglas permiten generar diferentes arquitecturas, dependiendo de los valores de , ,


, y el uso de seleccion elitista o no elitista. Para simplificar la descripcion de un enjambre
autoadaptativo (SelfAdaptive Swarm SAS), se propone la notacion ( / , + )SAS
basada en la notacion de ES. Con esta notacion se puede describir la arquitectura de
cualquier algoritmo SAS, incluyendo el presentado en [Miranda02a] el cual puede ser descrito
como (1 / , )SAS.

Basado en esta notacion, se define un algoritmo ( 1, )SAS, cuya estructura general


se presenta en la tabla 2.1. Este algoritmo, basado en una (1, )ES, posee individuos, 1
poblacion padre, poblaciones descendientes, con seleccion elitista y sin recombinacion, o
sea que las poblaciones descendientes se obtienen unicamente por mutacion. Para adaptar
un algoritmo de enjambres a este marco de referencia se requiere definir los mecanismos de
calculo de y los parametros a evolucionar.

27
2. EVOLUCION DE ENJAMBRES

Seleccionar los parametros iniciales del algoritmo


Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
Calcular un costo inicial de la poblacion
PARA i = 1 HASTA epochs HAGA
PARA l = 1 HASTA HAGA
Calcular con los parametros del conjunto l
Calcular el costo J ( ) de cada individuo
Calcular el costo G (l) de cada poblacion
FIN PARA
Seleccionar la poblacion con el menor valor G
Mutar los parametros para obtener conjuntos de parametros
SI Gant > G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
Gant = G
FIN PARA

Tabla 2.1: Algoritmo de Enjambres Evolutivo

2.1.1. Evolucion de Enjambre de Bacterias

El algoritmo BSFO posee una variedad de parametros que controlan el funcionamiento de


algunas caractersticas adicionales a la busqueda basada en quimiotaxis, como lo son la
reproduccion, la eliminaciondispersion y el uso de atrayentesrepelentes. Si bien estas
caractersticas estan disenadas para mejorar el desempeno del algoritmo, el uso de ciclos
del tipo FOR las hacen poco eficientes, en particular en lenguajes orientados a vectores
como lo es MATLAB. Adicionalmente, para determinar la influencia de los parametros en el
resultado, se realizaron pruebas preliminares, cuyos resultados mostraron que los parametros
de mayor influencia en el algoritmo corresponden al tamano del paso C, el numero de
pasos quimiotacticos, la profundidad y el ancho de los atrayentesrepelentes. Teniendo estas
consideraciones en cuenta, como paso inicial para el desarrollo del algoritmo evolutivo, se
considera la supresion de las caractersticas de reproduccion y de eliminaciondispersion,
dando lugar a un algoritmo basado unicamente en quimiotaxis y comunicacion entre
individuos.

Entonces, para el algoritmo de bacterias en una iteracion i para el kesimo individuo con
el grupo de parametros l se define un valor de segun la ecuacion 2.2 y una funcion de
costo de acuerdo a la ecuacion 2.3, donde Jn corresponde al costo por nutrientes, mar es
la magnitud de los atrayentesrepelentes igualadas para que en la posicion de la bacteria el
costo se deba unicamente a los nutrientes, wr es el ancho de los repelentes y wa el ancho de
los atrayentes, con wr > wa debido a que su tamano es inversamente proporcional.

k (i + 1) = k (i) +Cl (i) k (i) (2.2)

28
2.1 Implementacion de Enjambres Evolutivos

Seleccionar los parametros iniciales del algoritmo


Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
PARA i = 1 HASTA epochs HACER
Calcular J (i)
PARA l = 1 HASTA HACER
Calcular Jcc de acuerdo a los valores de la poblacion
SI Jlast + Jcc J + Jcc ENTONCES
Generar una nueva direccion para la bacteria
FIN SI
Calcular con los parametros del conjunto l
Calcular el costo J ( ) de cada individuo
Calcular el costo G (l) de cada poblacion
FIN PARA
Seleccione la poblacion con mejor desempeno
Actualice el mejor valor obtenido
SI i > 1
SI Gant > G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
FIN SI
Actualice Gant
FIN PARA

Tabla 2.2: Optimizacion por Enjambre de Bacterias Evolutivo

p p
J (k , i) = Jn (k ) + mlar (i) ewlr (i) m=1 (k m ) ewla (i) m=1 (k m )
 2 2

(2.3)

Para construir el algoritmo evolutivo, se hace uso de las ecuaciones 2.1, 2.2 y 2.3,
y del algoritmo generico mostrado en la tabla 2.1 el cual se modifica para incluir los
aspectos especficos de comportamiento del enjambre de bacterias. Los cambios se ubican
fundamentalmente en el calculo y evaluacion de costo de la nueva posicion, dando como
resultado el algoritmo evolutivo de bacterias mostrado en la tabla 2.2.

2.1.2. Evolucion de Enjambre de Partculas

El algoritmo PSO, a diferencia de BSFO, es mucho mas sencillo ya que en su definicion


primaria no se consideran ciclos, siendo el proceso de busqueda mas continuo. Ademas,
la funcion de costo no se ve alterada por la comunicacion entre agentes. Debido a que
representa una forma mas adecuada de realizar la exploracion, se utiliza el modelo con
peso inercial descrito en [Shi98]. Los parametros de este algoritmo son el peso inercial w,
las constantes de los modelos individual c1 y social c2 , y la velocidad maxima mv. Para este
algoritmo, definimos que = v, por tanto, la nueva posicion para la kesima partcula con
el conjunto de parametros l esta dada por las ecuaciones 2.4 y 2.5.

29
2. EVOLUCION DE ENJAMBRES

Seleccionar los parametros iniciales del algoritmo


Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
Calcular un costo inicial de la poblacion
PARA i = 1 HASTA epochs HAGA
Calcular el costo de la partcula Jk
SI Jk (kn ) < J (pd ) ENTONCES
pid = kn
FIN SI
SI Jk (kn ) < J pgd ENTONCES

pgd = kn
FIN SI
PARA l = 1 HASTA HAGA
Calcular con los parametros del conjunto l
Calcular el costo J ( ) de cada individuo
Calcular el costo G (l) de cada poblacion
FIN PARA
Seleccionar la poblacion con el menor valor G
Mutar los parametros para obtener conjuntos de parametros
SI Gant > G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
Gant = G
FIN PARA

Tabla 2.3: Optimizacion por Enjambre de Partculas Evolutivo

kn (i + 1) = wl (i) kn (i) + R1 c1l (i) (pkn kn (i)) + R2 c2l (i) (pgn kn (i)) (2.4)

kn (i + 1) = kn (i) + kn (i + 1) (2.5)

Al igual que con BSFO, para construir el algoritmo evolutivo, se hace uso de las ecuaciones
2.1, 2.4 y 2.5, y del algoritmo generico mostrado en la tabla 2.1 el cual se modifica para incluir
los aspectos especficos de comportamiento del enjambre de partculas. Los cambios se
producen en la actualizacion de la informacion individual y social del individuo representados
por pid y pgd , y el calculo de la nueva posicion, obteniendose el algoritmo evolutivo de
partculas mostrado en la tabla 2.3.

2.2. Evaluacion de desempeno

Para probar el desempeno de los algoritmos propuestos, se realiza un estudio por simulacion
usando un grupo de diez funciones y siete algoritmos de inteligencia de enjambres para

30
2.2 Evaluacion de desempeno

No. Nombre Parametros

1 BSFO ped = 0,10 pre = 0,20 Ci = 0,05d Ns = 10


2 PSO mv = 0,01d c1 = c2 = 2,000
3 IWPSO mv = 0,01d w = 0,600 c1 = c2 = 2,000
4 T1PSO mv = 0,01d w = 0,600 c1 = c2 = 1,700
5 T2PSO mv = 0,01d w = 0,729 c1 = c2 = 1,494
6 CFPSO mv = 0,01d = 0,7298 c1 = 2,8000 c2 = 1,3000
7 ABHA prs = 0,5 pe = 0,8 = 0,2 = C = 0,1 SR = 0,95
8 EvBSFO = 50 = 5 Ci = 0,05d Ns = 10
9 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c1 = c2 = 1,700

Tabla 2.4: Parametros de los algoritmos para la prueba con funciones

No. Nombre D Rango Jmin


1 SCB 2 [2, 2; 1, 1] 1,0316
2 PFUNC 2 [0, 30]2 3,9867
3 Peaks 2 [3, 3]2 6,5511
4 DeJong F1 30 [100, 100]n 0,0000
5 Grienwank 30 [100, 600]n 0,0000
6 Rastrigin 30 [5,12, 5,12]n 0,0000
7 Ackley 30 [32, 32]n 0,0000
8 DeJong F2 2 [100, 100]2 0,0000
9 Schaffer F6 2 [100, 100]2 0,0000
10 Schewefel 30 [500, 500]n 12569,5

Tabla 2.5: Parametros de las funciones de prueba

optimizacion continua: La Optimizacion por Enjambre de Partculas (PSO), la Optimizacion


por Enjambre de Partculas con Peso Inercial (the Inertia Weight Particle Swarm Optimization)
[Shi98] con los parametros comunes (IWPSO) y con los dos grupos de parametros sugeridos
por Trelea (T1PSO y T2PSO) [Trelea03], la Optimizacion por Enjambre de Partculas con
Factor de Constriccion (Constriction Factor Particle Swarm Optimization CFPSO) [Clerc99],
la Optimizacion por Enjambre de Bacterias (BSFO) y el Algoritmo de Colmena de Abejas
Artificiales (Artificial Bee Hive Algorithm ABHA) [Munoz08]. Los parametros usados para
cada algoritmo son mostrados en la tabla 2.4, donde d es la diagonal del espacio de
busqueda. El experimento fue realizado durante 100 iteraciones de 1000 ciclos cada uno
con una poblacion igual para todos los algoritmos de 50 agentes. Todas las funciones de
prueba son no lineales y comunmente utilizadas en pruebas de algoritmos de optimizacion.
Estas son las funciones SCB, PFUNC, MATLAB Peaks, DeJong F1, Grienwank, Rastrigin,
Ackley, DeJong F2, Schaffer y Schewefel. El numero de dimensiones, rango de las variables
y valor mnimo de cada una de las funciones son mostrados en la tabla 2.5, las ecuaciones
de cada funcion se muestran en la tabla 2.6.

Estas funciones son seleccionadas debido a su correlacion con problemas del mundo real,
donde hay funciones de costo unimodales y multimodales, con variables correlacionadas y no
correlacionadas. La funcion de DeJong F1 no contiene mnimos locales y provee un gradiente
suave hacia un optimo global. La funcion de Grienwank introduce interdependencia entre las

31
2. EVOLUCION DE ENJAMBRES

No. Ecuacion

J = 4 2,112 + 31 14 12 + 1 2 + 4 + 422 22
 
1
i ((1 Xi )2 +(2 Yi )2 )
2 J = 10
i=1 Ai e
A = [5 2 3 2 2 4 2 2 2 2]
= [0,1 0,08 0,08 0,1 0,5 0,1 0,5 0,5 0,5 0,5]
X = [15 20 25 10 5 15 8 21 25 5]
Y = [20 15 10 10 10 5 25 25 16 14]
J = 3 (1 1 )2 e(2 +1) 1 13 e(1 +1) 2 10 51 13 25 e1 2
2 2 2 2
  2 2
3

4 J = ni=1 xi2  
5
1
J = 4000 i=1 i i=1
n
x xi
2 n cos
i
+1
6 J = ni=1 xi2 10 cos (2 xi ) + 10
7 J = 20e 0,2 30 1
ni=1 xi2 e 30
1
ni=1 cos(2 xi ) + 20 + e
2
J = 100 x2 y + (1 x)2

8
 2
sin x2 +y2 0,5
9 J = 0,5 2
p 2 +y2 ))
(1+0,001(x
10 J = i=1 xi sin |xi |
n

Tabla 2.6: Ecuaciones de las funciones de prueba

variables. La funcion de Rastrigin tiene soluciones semioptimas localizadas en forma de


grilla alrededor del optimo global, y no hay correlacion entre las variables. La funcion de
Ackley es multimodal a baja resolucion. El espacio definido por la funcion de DeJong F2 es
unimodal y existe correlacion entre las variables de diseno. La funcion de Schewefel tiene una
solucion semioptima muy alejada del optimo global donde muchos algoritmos de busqueda
resultan atrapados. Ademas, el optimo global existe cerca de los lmites del espacio y no
existe correlacion entre las variables [Yisu07].

Para comparar los diferentes algoritmos, se encontraron los valores mnimo, promedio y
la desviacion estandar de cada experimento. Para tener una mejor visualizacion de los
resultados obtenidos, se utiliza una grafica box and whisker para cada funcion. Las lneas
de la caja se ubican en el cuartil inferior ( ), superior (+ ) y en el promedio de los datos y
representan los datos dentro del 50 % de la distribucion. Las lneas de extension muestran los
datos dentro del 99.3 % de la distribucion (2 ). Los puntos por fuera de estos representan
los datos en el ultimo 0.7 % y son considerados estadsticamente por fuera del rango.

La grafica 2.1 muestra los resultados para la funcion SCB. Se puede observar que todos
los algoritmos son capaces de obtener el valor mnimo dentro del rango de la funcion.
Sin embargo, es notorio un mejor desempeno de los algoritmos PSO con parametros
preestablecidos. Esto se ve representado por una menor desviacion estandar. Se podra
considerar que para este problema el efecto de la busqueda de parametros no incrementa el
desempeno del algoritmo.

32
2.2 Evaluacion de desempeno

La grafica 2.2 muestra los resultados para la funcion PFUNC. Al igual que con la funcion SCB,
todos los algoritmos fueron capaces de obtener valores mnimos durante el experimento. Se
puede notar que los algoritmos basados en PSO tienen una mayor dispersion de los datos,
que no se solventa por la evolucion de los parametros, ya que el algoritmo EvPSO posee
una desviacion estandar similar a la de los otros algoritmos. Comparativamente, el algoritmo
EvBSFO se desempena mejor que su contraparte estatica, al presentar una desviacion
estandar menor.

La grafica 2.3 muestra los resultados para la funcion Peaks. En este caso se puede observar
que todos los algoritmos encuentran el mnimo global de la funcion. Para el caso del algoritmo
BSFO frente al algoritmo evolutivo, existe una disminucion de la media y de la desviacion
estandar, obteniendose un mejor desempeno con la autoadaptacion de parametros. Con
respecto al algoritmo EvPSO presenta mejora frente al algoritmo PSO clasico, sin embargo,
no existe una mejora sustancial frente a los algoritmos estaticos que contengan peso inercial.

La grafica 2.4 muestra los resultados para la funcion DeJong F1. Esta funcion, a pesar de
ser conceptualmente sencilla, presenta una fuerte dificultad debido a la gran cantidad de
dimensiones y a poseer un espacio de busqueda amplio. El experimento realizado muestra
que existe una notoria diferencia entre el resultado obtenido entre el algoritmo de bacterias
estatico y evolutivo, siendo este ultimo capaz de llegar muy cerca del valor optimo. En el
caso del algoritmo EvPSO, este presenta el menor valor mnimo encontrado durante el
experimento, aunque presenta un promedio y desviacion mayor que la obtenida por los
algoritmos estaticos.

La grafica 2.5 muestra los resultados para la funcion Grienwank. En esta funcion, a parte de
la interdependencia de variables, se suma la amplitud del espacio de busqueda. Al igual que
en la funcion anterior se puede observar una mejora sustancial del desempeno del algoritmo
evolutivo de bacterias frente al algoritmo estatico, aunque presenta una desviacion entandar
alta, el 99 % de los datos obtenidos en el experimento son mejores que la media del algoritmo
estatico. Con respecto al algoritmo EvPSO, este obtiene nuevamente el menor valor en el
experimento y su media es similar a los algoritmos estaticos con peso inercial o con factor de
constriccion, sin embargo, su desviacion estandar es mayor.

La grafica 2.6 muestra los resultados para la funcion Rastrigin. En esta funcion multimodal,
existe una alta probabilidad que los algoritmos basados en descenso de gradiente como
BSFO y ABHA se desempenen pobremente. Al ejecutar el experimento, nuevamente la
autoadaptacion de parametros del algoritmo EvBSFO evita que la poblacion se estanque
en un mnimo local, logrando obtener un valor menor en el experimento que el algoritmo
estatico, aunque a costa de una mayor desviacion estandar. En el caso del algoritmo EvPSO,
se obtiene el menor valor dentro del experimento, aunque presenta una desviacion estandar
mayor.

33
2. EVOLUCION DE ENJAMBRES

Box plots for SCB function

Jmin Javg
1.005

BSFO -1.0316E+00 -1.0316E+00 5.3141E-05


PSO -1.0316E+00 -1.0316E+00 7.0027E-10 1.01

IWPSO -1.0316E+00 -1.0316E+00 1.0000E-15

Values
1.015
T1PSO -1.0316E+00 -1.0316E+00 1.0000E-15
T2PSO -1.0316E+00 -1.0316E+00 1.0000E-15
1.02
CFPSO -1.0316E+00 -1.0316E+00 1.0000E-15
ABHA -1.0316E+00 -1.0316E+00 3.9047E-07
1.025
EvBSFO -1.0316E+00 -1.0316E+00 1.0341E-04
EvPSO -1.0316E+00 -1.0305E+00 4.0878E-03
1.03

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.1: Resultados para la funcion SCB

Box plots for PFUNC function

Jmin Javg
BSFO -3.9867E+00 -3.9861E+00 4.8005E-04 2.5
PSO -3.9867E+00 -3.9052E+00 4.0109E-01
IWPSO -3.9867E+00 -3.9460E+00 2.8655E-01
Values

T1PSO -3.9867E+00 -3.9063E+00 3.9614E-01 3


T2PSO -3.9867E+00 -3.9037E+00 4.0868E-01
CFPSO -3.9867E+00 -3.9668E+00 1.9897E-01
ABHA -3.9867E+00 -3.9867E+00 2.8082E-05 3.5
EvBSFO -3.9867E+00 -3.9866E+00 5.4876E-04
EvPSO -3.9867E+00 -3.8700E+00 4.4832E-01
4
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.2: Resultados para la funcion PFUNC

Box plots for Peaks function

Jmin Javg 3.5

BSFO -6.5511E+00 -6.5505E+00 5.3651E-04 4


PSO -6.5511E+00 -6.4811E+00 4.9265E-01
4.5
IWPSO -6.5511E+00 -6.5511E+00 5.0000E-15
Values

T1PSO -6.5511E+00 -6.5511E+00 5.0000E-15


5
T2PSO -6.5511E+00 -6.5511E+00 5.0000E-15
CFPSO -6.5511E+00 -6.5511E+00 5.0000E-15 5.5
ABHA -6.5511E+00 -6.5511E+00 1.9647E-05
EvBSFO -6.5511E+00 -6.5510E+00 4.1183E-04 6
EvPSO -6.5511E+00 -6.5272E+00 1.3451E-01
6.5

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.3: Resultados para la funcion Peaks

34
2.2 Evaluacion de desempeno

4 Box plots for DeJong F1 function


x 10

4.5

Jmin Javg 4

3.5
BSFO 2.7376E+04 3.8423E+04 3.4068E+03
PSO 1.7871E+00 5.1879E+00 1.6449E+00 3

IWPSO 2.7236E+01 9.5985E+01 4.5321E+01

Values
2.5
T1PSO 1.3445E+02 4.5751E+02 1.6265E+02
2
T2PSO 5.7028E+01 2.6585E+02 1.2221E+02
CFPSO 8.8210E+01 3.3091E+02 1.3658E+02 1.5
ABHA 2.6191E+04 4.4591E+04 6.1249E+03 1
EvBSFO 1.9865E-02 7.9654E+03 8.8747E+03
0.5
EvPSO 0.0000E+00 3.9452E+02 1.3956E+03
0

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.4: Resultados para la funcion DeJong F1

Box plots for Grienwank function

400

Jmin Javg 350

300
BSFO 2.6347E+02 3.4474E+02 2.8947E+01
PSO 8.3443E-01 1.0142E+00 5.1948E-02 250
IWPSO 1.1832E+00 1.9974E+00 5.2106E-01
Values

T1PSO 2.2677E+00 5.1134E+00 1.7203E+00 200

T2PSO 1.6577E+00 3.5269E+00 1.2240E+00 150


CFPSO 1.8521E+00 3.7374E+00 1.3370E+00
ABHA 2.5163E+02 4.0451E+02 4.8475E+01 100

EvBSFO 4.3430E-03 8.8692E+01 9.1459E+01


50
EvPSO 0.0000E+00 3.1518E+00 7.4893E+00
0

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.5: Resultados para la funcion Grienwank

Box plots for Rastrigin function

400

Jmin Javg 350

BSFO 2.7886E+02 3.2842E+02 1.3823E+01 300


PSO 1.8193E+01 3.5582E+01 1.0206E+01
250
IWPSO 2.7702E+01 5.1408E+01 1.1751E+01
Values

T1PSO 3.8947E+01 6.8728E+01 1.4188E+01 200


T2PSO 2.9150E+01 6.2691E+01 1.4595E+01
CFPSO 2.9397E+01 5.5311E+01 1.2794E+01 150

ABHA 2.8891E+02 3.4178E+02 1.8322E+01 100


EvBSFO 1.1864E+02 3.0367E+02 6.6134E+01
EvPSO 1.2934E+01 1.2133E+02 8.7309E+01 50

0
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.6: Resultados para la funcion Rastrigin

35
2. EVOLUCION DE ENJAMBRES

La grafica 2.7 muestra los resultados para la funcion Ackley. La funcion presenta una dificultad
alta para los algoritmos de bacterias, ya que tanto el esquema estatico como el evolutivo es
incapaz de evitar el estancamiento en un mnimo local aunque el algoritmo evolutivo es capaz
de obtener algunos resultados mejores que el estatico, estos se encuentran por fuera del
99 % de los intentos, por lo cual, es poco probable que la evolucion de parametros para este
problema represente una mejora. Una situacion diferente se observa con el algoritmo EvPSO,
el cual es capaz de obtener el menor valor objetivo en el experimento, con una media muy
similar a los algoritmos estaticos. Al igual que en las pruebas anteriores, la capacidad de
obtener valores menores se ve disminuida por una mayor desviacion estandar.

La grafica 2.8 muestra los resultados para la funcion DeJong F2. Esta funcion de dos
dimensiones refleja un comportamiento de los algoritmos similar a las funciones SCB, PFUNC
y Peaks, donde todos los algoritmos obtienen valores muy cercanos al mnimo global. Con
respecto a los algoritmos de bacterias, el algoritmo evolutivo tiene un valor mnimo menor que
el estatico, pero se presenta un aumento en la media y la desviacion estandar. En cuanto al
algoritmo EvPSO presenta mejora frente al algoritmo PSO clasico al obtener un valor mnimo
similar a los algoritmos con peso inercial. En esta prueba, la diferencia entre la media y la
desviacion es mayor frente a los algoritmos estaticos.

La grafica 2.9 muestra los resultados para la funcion Schaffer F6. Al igual que la funcion
DeJong F2, todos los algoritmos obtienen valores muy cercanos al mnimo global. En este
caso, existe una mejora en la media y la desviacion estandar obtenidas por el algoritmo
EvBSFO frente al algoritmo estatico, proporcionando una mayor repetibilidad. En el caso del
algoritmo EvPSO, si bien consigue un valor mnimo adecuado, su repetibilidad es inferior a la
de los algoritmos estaticos.

La grafica 2.10 muestra los resultados para la funcion Schewefel. En esta funcion, cuyo valor
mnimo es un numero muy negativo, el unico algoritmo que logra obtener el valor global es el
EvPSO, seguido por EvBSFO, cuyo comportamiento es similar al obtenido por los algoritmos
de partculas estaticos. Si bien, estos resultados nuevamente se logran a costa de una menor
repetibilidad de los algoritmos de enjambres evolutivos, existe una buena probabilidad dentro
de un grupo de experimentos de lograr valores mejores con parametros dinamicos.

El siguiente paso en el analisis de los resultados es una comparacion directa entre los
algoritmos, para lo cual se utiliza el ttest con un intervalo de confianza del 95 %. Este
test permite determinar si el resultado es estadsticamente valido y al mismo tiempo si el
resultado obtenido por el algoritmo bajo prueba se puede considerar estadsticamente mejor
que el del algoritmo de control. El ttest calcula una diferencia entre los dos grupos y puede
considerarse una relacion de senal a ruido y es calculado por la ecuacion 2.6, donde T
corresponde al grupo bajo prueba y C al grupo de control, x es la media del grupo,
la desviacion estandar del grupo, n el numero de muestras del grupo y t corresponde a
la probabilidad en una distribucion del tipo tstudent. El valor t sera positivo si la primera

36
2.2 Evaluacion de desempeno

Box plots for Ackley function

20

Jmin Javg 18

16
BSFO 1.8895E+01 1.9655E+01 1.8369E-01
14
PSO 1.1173E+00 2.2053E+00 4.6178E-01
12
IWPSO 4.8288E+00 6.5895E+00 8.7499E-01

Values
T1PSO 5.1802E+00 7.3854E+00 9.8673E-01 10

T2PSO 4.8326E+00 6.8779E+00 1.0465E+00 8


CFPSO 4.1354E+00 6.7249E+00 1.0942E+00 6
ABHA 1.8717E+01 2.0094E+01 2.6796E-01
4
EvBSFO 1.7754E+01 1.9897E+01 2.9651E-01
EvPSO 1.1270E-10 7.0343E+00 2.9397E+00 2

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.7: Resultados para la funcion Ackley

Box plots for DeJong F2 function

2000

1800
Jmin Javg
1600
BSFO 3.1670E-03 6.4332E-01 6.5966E-01 1400
PSO 2.3899E-08 2.3620E-05 3.6345E-05
1200
IWPSO 0.0000E+00 0.0000E+00 0.0000E+00
Values

T1PSO 0.0000E+00 0.0000E+00 0.0000E+00 1000

T2PSO 0.0000E+00 0.0000E+00 0.0000E+00 800


CFPSO 0.0000E+00 0.0000E+00 0.0000E+00 600
ABHA 1.9746E-05 2.1157E-01 3.6734E-01
400
EvBSFO 2.0051E-05 3.8292E+00 9.9246E+00
EvPSO 0.0000E+00 3.1917E+01 1.9895E+02 200

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.8: Resultados para la funcion DeJong F2

Box plots for Schaffer F6 function


0.4

0.35
Jmin Javg
0.3
BSFO 2.4559E-03 7.3533E-03 6.8864E-03
PSO 2.4559E-03 2.4559E-03 1.5835E-09 0.25
IWPSO 2.4559E-03 2.4559E-03 0.0000E+00
Values

0.2
T1PSO 2.4559E-03 2.4559E-03 0.0000E+00
T2PSO 2.4559E-03 2.4559E-03 0.0000E+00 0.15
CFPSO 2.4559E-03 2.4559E-03 0.0000E+00
ABHA 2.4986E-03 7.8167E-02 6.3309E-02 0.1

EvBSFO 2.4559E-03 3.5245E-03 3.9712E-03


0.05
EvPSO 2.4559E-03 2.0191E-02 5.2128E-02
0
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.9: Resultados para la funcion Schaffer F6

37
2. EVOLUCION DE ENJAMBRES

Box plots for Schewefel function

3000

Jmin Javg 4000

5000
BSFO -6.1375E+03 -4.9426E+03 3.3240E+02
6000
PSO -8.1755E+03 -6.4861E+03 8.4756E+02
IWPSO -8.5951E+03 -6.3647E+03 8.8820E+02 7000

Values
T1PSO -8.4014E+03 -6.0020E+03 7.6415E+02 8000
T2PSO -8.1958E+03 -6.0334E+03 7.9105E+02
9000
CFPSO -8.4473E+03 -6.4722E+03 9.3734E+02
10000
ABHA -6.2105E+03 -4.9768E+03 3.8509E+02
EvBSFO -9.4828E+03 -6.0171E+03 1.0979E+03 11000
EvPSO -1.2569E+04 -5.3917E+03 2.6354E+03 12000

13000
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO

Figura 2.10: Resultados para la funcion Schewefel

media es mayor que la segunda y negativo si es menor [Trochim06]. Teniendo en cuenta que
n = 100 para ambos grupos, el lmite del valor t para un intervalo de confianza del 95 % es
1,66055. Por lo tanto, para que el resultado de la prueba sea estadsticamente significativo
y ademas con un mejor desempeno del algoritmo bajo prueba t 1,66055, para que
sean estadsticamente iguales 1,66055 < t < 1,06605, y para que sea estadsticamente
de menor desempeno 1,66055 t .

xT xC
t=r (2.6)
T2 C2
nT + nC

Los resultados del ttest se muestran en la tabla 2.7 para el algoritmo EvBSFO y en la tabla
2.8 para el algoritmo EvPSO, donde los valores en negrilla corresponden a un mejor o igual
desempeno del algoritmo bajo prueba. Los resultados muestran que la version evolutiva del
algoritmo de bacterias se desempena mejor que su contraparte estatica en ocho de diez
pruebas, sin embargo no logra tan buenos resultados frente a los algoritmos de partculas.
En el caso de EvPSO se obtienen resultados satisfactorios en mas de la mitad de las pruebas
realizadas. Las pruebas que no muestran resultados satisfactorios fueron aquellas cuya
media estuvo por encima de la media obtenida por el algoritmo de control.

2.3. Conclusiones

En este captulo se presenta el desarrollo de un algoritmo de referencia para la


autoadaptacion de algoritmos de enjambres por medio de una Estrategia Evolutiva (ES)

38
2.3 Conclusiones

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA

F1 -2.3453E+00 2.7741E+00 2.7742E+00 2.7742E+00 2.7742E+00 2.7742E+00 1.4092E+00


F2 -5.9848E+00 -2.0273E+00 -1.4164E+00 -2.0273E+00 -2.0277E+00 -9.9323E-01 -2.3908E+00
F3 -7.5561E+00 -1.4190E+00 2.8932E+00 2.8932E+00 2.8932E+00 2.8932E+00 -4.8163E+00
F4 -3.2040E+01 8.9695E+00 8.8671E+00 8.4584E+00 8.6750E+00 8.6015E+00 -2.1654E+01
F5 -2.6691E+01 9.5866E+00 9.4790E+00 9.1368E+00 9.3111E+00 9.2879E+00 -1.8476E+01
F6 -3.6627E+00 4.0063E+01 3.7556E+01 3.4735E+01 3.5582E+01 3.6870E+01 -4.7470E+00
F7 6.9485E+00 3.2238E+02 1.4404E+02 1.2143E+02 1.1970E+02 1.1619E+02 4.4015E+00
F8 3.2030E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.6540E+00
F9 -4.8165E+00 2.6909E+00 2.6909E+00 2.6909E+00 2.6909E+00 2.6909E+00 -3.2023E+00
F10 -9.3677E+00 3.3809E+00 2.4608E+00 -1.1317E-01 1.2029E-01 3.1521E+00 -4.5197E+00

Tabla 2.7: Resultados del ttest para el Algoritmo EvBSFO

BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA

F1 2.5303E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6331E+00


F2 2.5901E+00 5.8591E-01 1.4278E+00 6.0589E-01 5.5532E-01 1.9734E+00 2.5966E+00
F3 1.7315E+00 -9.0283E-01 1.7783E+00 1.7783E+00 1.7783E+00 1.7783E+00 1.7468E+00
F4 -1.0329E+02 2.7898E+00 2.1380E+00 -4.4837E-01 9.1848E-01 4.5362E-01 -6.5894E+01
F5 -1.1424E+02 2.8542E+00 1.5377E+00 -2.5527E+00 -4.9421E-01 -7.6968E-01 -8.1691E+01
F6 -2.3426E+01 9.7552E+00 7.9375E+00 5.9473E+00 6.6248E+00 7.4821E+00 -2.4225E+01
F7 -4.2847E+01 1.6228E+01 1.4503E+00 -1.1321E+00 5.0133E-01 9.8642E-01 -4.2867E+01
F8 1.5719E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.5941E+00
F9 2.4415E+00 3.4022E+00 3.4022E+00 3.4022E+00 3.4022E+00 3.4022E+00 2.7605E+00
F10 -1.6910E+00 3.9531E+00 3.4985E+00 2.2241E+00 2.3321E+00 3.8627E+00 3.5780E-01

Tabla 2.8: Resultados del ttest para el Algoritmo EvPSO

(1, ), donde el enjambre se considera un individuo con caractersticas definidas por sus
parametros. La ES permite el control de los parametros al seleccionar de un grupo de
mutaciones aquella que en la iteracion presente el mejor desempeno, representado por el
promedio de costo de sus integrantes.

Siguiendo este algoritmo de referencia, se modificaron dos algoritmos de enjambres


presentados previamente en el captulo 1: La optimizacion por enjambre de bacterias (BSFO)
y por enjambre de partculas (PSO). Para evaluar su desempeno frente a otros algoritmos
de enjambres con parametros estaticos se realizo un experimento sobre 10 funciones de
prueba. Los resultados obtenidos de este estudio muestran que la autoadaptacion genera
una mayor exploracion del espacio de busqueda, reflejada en una mayor variabilidad en los
resultados finales y en general se comporta como una prueba sistematica controlada de un
grupo de parametros. La variabilidad permite que el algoritmo encuentre valores menores que
las versiones estaticas, pero tambien que encuentre valores mayores. Este hecho se relaciona
al aumento de la desviacion estandar del algoritmo, aunque su media se mantenga cercana
a las encontradas por los metodos estaticos, un efecto que se puede atribuir a los parametros
semilla del algoritmo que son iguales a los de los metodos estaticos. La autoadaptacion
representa una mejora que puede ser de utilidad en espacios de busqueda donde la funcion
de costo tenga una variacion constante en su forma, e.g. en la superficie de error de un
sistema de control adaptativo.

39
2. EVOLUCION DE ENJAMBRES

40
CAPITULO 3

Sintonizacion de un Control PID por medio de enjambres


evolutivos

En Ingeniera de Control se presentan problemas que involucran sistemas que presentan


caractersticas como multiples entradas y salidas, no linealidades, alto acoplamiento,
presencia de fuertes disturbios, o restricciones operativas, que impiden su rapida y eficiente
solucion por metodos clasicos o convencionales. Una forma de solventar las deficiencias que
se pueden producir al utilizar metodos clasicos para resolver un problema complejo es el uso
de tecnicas de Control Inteligente (Intelligent Control IC), las cuales utilizan metodos de
Inteligencia Computacional (CI) en la solucion de problemas de identificacion, optimizacion y
control.

Un problema de control puede ser visto como un problema de optimizacion, donde se


sintoniza un controlador, buscando los mejores parametros, para obtener el mnimo error
entre una senal de referencia y una senal de salida. Existen diversos metodos para llevar
a cabo la sintonizacion, y uno de ellos es aplicar un algoritmo de optimizacion que pueda
obtener los parametros, definiendo como funcion de costo el error del sistema.

En el captulo 2 se examino la construccion de dos algoritmos de optimizacion


autoadaptables basados en enjambres, los cuales mostraron su capacidad para obtener
soluciones mejores que los algoritmos con parametros fijos. La principal ventaja que
presentan los algoritmos es su capacidad para adaptarse a un nuevo ambiente, que puede

41
3. SINTONIZACION DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS

Figura 3.1: Sistema de dos masas con flexibilidad y amortiguamiento

ser de gran utilidad en el control de sistemas.

En este captulo se muestra la aplicacion de los algoritmos EvBSFO y EvPSO para la


sintonizacion de un control de tipo PID para un sistema de dos masas con flexibilidad
y amortiguamiento. Este problema presenta una solucion lmite para el tiempo de
establecimiento y permite investigar si el algoritmo de optimizacion encuentra valores
adecuados cuando se utiliza en un problema de control simple. En la seccion 3.1 se presenta
el sistema a controlar con la solucion lmite propuesta [Reynolds99]. En la seccion 3.2 se
muestra la implementacion del controlador con optimizacion por enjambres evolutivos. En la
seccion 3.3 se presenta el experimento realizado y los resultados obtenidos en el ejercicio
por simulacion. Finalmente en la seccion 3.4 se presentan las conclusiones de este captulo.

3.1. Sistema de dos masas con flexibilidad y


amortiguamiento

En la actualidad existen varios metodos para sintetizar, sintonizar o disenar un controlador, por
lo tanto se hace necesario poseer un sistema del cual se conozca una solucion suboptima
que permita comparar el desempeno de las diversas contribuciones. Con este objetivo en
mente se propuso una solucion de forma cerrada para obtener un lmite para el tiempo de
movimiento y establecimiento de un sistema estandar de dos masas, mostrado en la figura
3.1 con un modo flexible y un modo rgido [Reynolds99]. El amortiguamiento es incluido para
hacer los resultados lo mas generales posibles. El objetivo de este sistema es mover la masa
no controlada m2 a una distancia xF en un tiempo mnimo sometido a una restriccion del
actuador de FMAX . Sea entonces la frecuencia natural del sistema dada por la ecuacion 3.1 y
el radio de amortiguamiento por la ecuacion 3.2, donde k y b son las constantes del resorte
y el amortiguador respectivamente, tenemos que el sistema en espacio de estado esta dado
por las ecuaciones 3.3 y 3.4 donde Y corresponde a la aceleracion de m2 .

42
3.1 Sistema de dos masas con flexibilidad y amortiguamiento

s  
k m1
n = 1+ (3.1)
m1 m2

s
m1
b 1+ m
= 2
(3.2)
2 km1

   
0 1 0
X = X+ U (3.3)
n 2 n
2 1

1  2
n 2 n X

Y= (3.4)
m2

Ahora, considerando que la solucion es la aplicacion de una entrada de amplitud FMAX


durante un tiempo determinado, luego del cual la entrada es puesta a cero. Este esquema,
denominado de interruptor simple, produce una aceleracion creciente hasta un pico a p ,
a partir del cual decrece con una envolvente exponencial. Para obtener el tiempo de
establecimiento, es necesario obtener un valor analtico para a p , el cual se obtiene de
manipular tediosamente la respuesta generalp del sistema y se muestra en la ecuacion
3.5, donde = 64 + 80 16 , = 1 2 , = 32 7 + 40 5 8 3 + 1,
8 6 4

= tan1 y = F (s1 ), siendo F (s1 ) la transformada de Laplace de la entrada dada


por la ecuacion 3.6, con Ts calculado por la ecuacion 3.7.

s

 
1
q q
ap = p n e n T s |F (s1 )| 2 2 + 2 cos + 2n Ts 1 2 + 2 + 4
2m2 1 + 2
(3.5)

FMAX 2FMAX e Ts /2 cos (d Ts /2) + FMAX e Ts cos (d Ts )


F (s1 ) =
n + jd
(3.6)
2FMAX e s sin (d Ts /2) FMAX e Ts sin (d Ts )
T /2
+j
n + jd

s
4 (m1 + m2 ) xF
Ts = (3.7)
FMAX

43
3. SINTONIZACION DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS

No. Variable Valor

1 xF 10.000
2 m1 2.0000
3 m2 2.0000
4 k 1.5000
5 b 0.8000
6 Ts 16.000
7 n 1.2247
8 0.3266
9 d 0.8247
10 FMAX 10.000
11 F (s1 ) -5427.8287-2712.358 j
12 ap 4.7822
13 a 0.1000
14 tset 31.4376

Tabla 3.1: Parametros del sistema de dos masas

Con el calculo de la aceleracion pico, se define un lmite para la aceleracion donde se presume
el sistema es estable al cual se denomina a y es definido por el usuario. Con estos valores
se obtiene una ecuacion para el tiempo de movimiento y establecimiento para el sistema el
cual es mostrado en la ecuacion 3.8.

ln (a /a p )
 
tset = n Ts (3.8)
n

Si una estrategia de control en particular tiene un tiempo tset mayor que la forma simple, es
altamente probable que el tiempo y esfuerzo extra empleado es desperdiciado. Esta estrategia
representa valores adecuados para sistemas con moderado ( > 0,1) o fuerte ( > 0,6)
amortiguamiento.

Para hacer uso de esta prueba, es necesario parametrizar el sistema, de tal manera que
presente un amortiguamiento moderado o fuerte, caso en el cual el diseno de interruptor
simple es adecuado. Los parametros seleccionados muestran en la tabla 3.1.

Con estos valores, obtenemos un sistema cuyas ecuaciones de estado corresponden a las
ecuaciones 3.9 y 3.10.

   
0 1 0
X = X+ U (3.9)
1,50 0,80 1

 
Y= 0,75 0,40 X (3.10)

44
3.2 Sintonizacion de controladores PID

3.2. Sintonizacion de controladores PID

La ley de control ProporcionalIntegralDerivada (PID), representa uno de los controladores


mas ampliamente utilizados en los esquemas de compensacion particularmente cuando se
posee un modelo lineal del sistema, siendo su uso cercano al del 95 % de los lazos de control
en los entornos industriales [Herrero02]. La principal razon por la cual el control PID es tan
popular es debido a la facilidad con que estos componentes pueden analizarse, visualizarse
y disenarse en los dominios del tiempo y de la frecuencia [Kuo96]. Ademas, el controlador
PID mejora el amortiguamiento y reduce el sobrepaso, el tiempo de levantamiento y el tiempo
de asentamiento. Sin embargo, la seleccion de las ganancias de cada componente debe
realizarse de manera muy cuidadosa, ya que valores inadecuados pueden producir efectos no
deseados e inclusive desastrosos. Con esto en mente, se han desarrollado diversos metodos
para sintonizar este tipo de controladores, entre los cuales se pueden mencionar:

Metodos empricos como el de ZieglerNichols.

Metodos analticos como los basados en el lugar geometrico de las races.

Metodos basados en optimizacion.

Dentro de esta ultima categora, se hace uso de una funcion de costo que representa el
objetivo de diseno del sistema, como por ejemplo reducir el error durante la respuesta al
escalon, reducir el tiempo de establecimiento o el sobrepaso maximo; como objetivo del
metodo de optimizacion. En varios trabajos se hace uso de los Algoritmos Geneticos para
sintonizar controladores en sistemas no lineales [Herrero02, Griffin03].

Para obtener una solucion al problema descrito en la seccion 3.1, se utilizaran los algoritmos
EvBSFO y EvPSO, con parametros iniciales descritos en la tabla 3.2, para sintonizar las
ganancias de un controlador PID con la estructura descrita en la ecuacion 3.11 el cual controla
la posicion final xF de la masa no controlada m2 . Teniendo en cuenta que la salida descrita
por el modelo en espacio de estado esta dada como la aceleracion de m2 , se debe integrar
doblemente la salida para obtener la posicion, suponiendo condiciones iniciales iguales a
cero.

de(t)
Z
u (t) = KP e(t) + KI e(t)dt + KD (3.11)
dt

45
3. SINTONIZACION DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS

No. Nombre Parametros

3 EvBSFO = 50 = 5 Ci = 0,05d Ns = 10 epoch = 1000


4 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c1 = c2 = 1,700 epoch = 1000

Tabla 3.2: Parametros de los algoritmos para la sintonizacion del control PID

Algoritmo KP KD KI tset ap xp
EvBSFO 0.5976 46.821 -0.0031 31.40 -5.095 17.84
EvPSO 0.4307 48.448 -0.0022 24.60 -2.911 14.89

Tabla 3.3: Parametros del Controlador PID obtenidos por Enjambres Evolutivos

3.3. Procedimiento y Resultados

Para el desarrollo de este problema, se elaboro una metodologa a partir del conocimiento
extrado del comportamiento de los algoritmos en el captulo 2. Los resultados en este capitulo
mostraron que los algoritmos evolutivos tienen una probabilidad de encontrar igual o mejor
respuesta en cerca del 50 % de las ocasiones comparado con un algoritmo de enjambres
no evolutivo. Con esto en mente, se realizan dos experimentos para la sintonizacion fuera de
lnea. El primero de ellos toma el espacio de busqueda definido por los lmites 10 KP 10,
10 KI 10 y 100 KD 100 para encontrar una zona del espacio mas prometedora.
Como funcion de costo en este experimento se hace uso del error cuadrado medio sobre
una referencia constante igual a xF , con el objetivo de reducir el error de magnitud mayor a
uno. Luego, se selecciona el espacio de busqueda alrededor del punto obtenido para realizar
una sintonizacion fina al ubicar una mayor cantidad de agentes en este nuevo rango. En este
experimento, se utiliza como funcion de costo el error absoluto medio sobre una referencia
constante igual a xF , con el objetivo de reducir el error de magnitud menor a uno. Con el
primer experimento se determina que las ganancias adecuadas se encuentran en el rango
0 KP 1, 0,05 KI 0,05 y 40 KD 50. Con el segundo experimento se obtienen
los resultados finales que se muestran en la tabla 3.3, teniendo en cuenta que el tiempo de
establecimiento tset se define como el tiempo en el cual la aceleracion de m2 no sobrepasa el
valor de a utilizado.

La tabla muestra que se obtiene un valor de tset de una magnitud similar al obtenido por medio
del interruptor simple, al aplicar el algoritmo EvBSFO sobre el controlador PID, pero se obtiene
un valor inferior al aplicar el algoritmo EvPSO. A continuacion, se realizaron dos pruebas para
determinar el comportamiento del controlador frente a una referencia constante y frente a
cambios de referencia. Los resultados se muestran en las figuras 3.2 y 3.3. Las graficas
superiores muestran la referencia y la posicion de m2 , las intermedias muestran la aceleracion
y los lmites definidos por a y las inferiores muestran la accion de control efectuada.

La figura 3.2 muestra el resultado obtenido al utilizar el PID sintonizado por EvBSFO.

46
3.3 Procedimiento y Resultados

Experiment Results Experiment Results


20 100
Position

Position
50
10
0

0 50
0 5 10 15 20 25 30 35 40 0 50 100 150 200 250 300 350 400
5 10
Acceleration

Acceleration
0
0
5

10 10
0 5 10 15 20 25 30 35 40 0 50 100 150 200 250 300 350 400
10 10
Control

Control
0 0

10 10
0 5 10 15 20 25 30 35 40 0 50 100 150 200 250 300 350 400
Time Time

Figura 3.2: Resultados obtenidos con el PID sintonizado por EvBSFO: (Izquierda) Referencia Constante (Derecha) Referencia Variable

Experiment Results Experiment Results


20 100
Position

Position

50
10
0

0 50
0 5 10 15 20 25 30 35 40 0 50 100 150 200 250 300 350 400
5 10
Acceleration

Acceleration

0 0

5 10
0 5 10 15 20 25 30 35 40 0 50 100 150 200 250 300 350 400
10 10
Control

Control

5
0
0

5 10
0 5 10 15 20 25 30 35 40 0 50 100 150 200 250 300 350 400
Time Time

Figura 3.3: Resultados obtenidos con el PID sintonizado por EvPSO: (Izquierda) Referencia Constante (Derecha) Referencia Variable

Con el experimento con referencia fija, se puede observar que el controlador genera una
senal con un valor inicial igual a FMAX , que inmediatamente decae a un valor de 5.97.
La salida del sistema produce un sobrepaso en la posicion de 17.84 y una aceleracion
pico de -5.095. La figura 3.3 muestra el resultado obtenido al utilizar el PID sintonizado
por EvPSO. Con el experimento con referencia fija, se puede observar que el controlador
genera una senal con un valor inicial igual a FMAX , que inmediatamente decae a un valor
de 4.303, suficientemente inferior a la producida por el controlador sintonizado por EvBSFO.
La salida del sistema produce un sobrepaso en la posicion de 14.89 y una aceleracion pico
de -2.911, lo que implica un menor tiempo de establecimiento. El incremento de la ganancia
KD mejora sustancialmente el amortiguamiento. Los resultados obtenidos en el experimento
de referencia variable son resumidos en la tabla 3.4, donde se observa nuevamente que los
controladores sintonizados poseen un valor de tset similar o inferior en la mayora de los casos
frente a la respuesta obtenida con el interruptor simple (IS).

47
3. SINTONIZACION DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS

Escalon 1 2 3 4 5 6 7 8 9

xF 10.95 8.598 31.59 12.79 27.55 6.79 15.58 39.82 0.95


IS 32.75 29.13 74.46 37.14 66.18 25.68 42.81 89.83 10.88
EvBSFO 31.70 28.70 27.80 31.90 32.00 25.80 34.60 31.40 11.10
EvPSO 24.90 21.60 26.10 25.10 25.90 17.10 25.30 26.70 7.70

Tabla 3.4: Tiempos de establecimiento obtenidos con el experimento de referencia variable

3.4. Conclusiones

En este captulo se presento la aplicacion de los algoritmos EvBSFO y EvPSO para la


sintonizacion de un control de tipo PID para un sistema de dos masas con flexibilidad y
amortiguamiento. El experimento mostro que el algoritmo es capaz de obtener soluciones
adecuadas a un problema de control automatico, y que las soluciones se desempenan en la
mayora de los casos mejor que una solucion analtica lmite. Si bien el sistema es lineal de
una entrada y una salida, el ejercicio es de gran ayuda para entender el comportamiento
del sistema de enjambres evolutivos y desarrollar una metodologa para la sintonizacion
de controladores fuera de lnea, al explorar inicialmente una area amplia del espacio de
busqueda y luego examinar con mayor detenimiento el area alrededor del mejor punto
localizado.

Sin embargo, este problema no representa un sistema complejo como lo fue definido
anteriormente. Para examinar el potencial que poseen los algoritmos de enjambres evolutivos
es necesario hacer uso de un sistema cuyo modelo matematico se desconoce y cuyo analisis
determnistico sea de una mayor dificultad. Con esto en mente, se realiza el diseno de un
controlador para la Plataforma de Experimentacion de Temperatura Multizona (MuTEP).

48
CAPITULO 4

Regulacion de Temperatura en la Plataforma de


Experimentacion de Temperatura Multizona

En los anteriores captulos examinamos el comportamiento de los algoritmos de enjambres


evolutivos sobre problemas de optimizacion con un solo objetivo, representado por una
unica funcion de costo. En la practica, es muy comun encontrar problemas que requieren
la optimizacion simultanea de mas de una funcion de costo, que inclusive pueden representar
objetivos contrarios, como por ejemplo en la construccion de un puente donde se requiere
baja masa y alta rigidez. En estos casos es muy probable que los diferentes objetivos no
puedan ser optimizados por las mismas selecciones de parametros. Por lo tanto se hace
necesario un criterio que permita obtener un diseno satisfactorio al balancear los diferentes
objetivos [Das97].

En este captulo se presenta la implementacion de un control indirecto adaptativo por modelos


para la Plataforma de Experimentacion de Temperatura Multizona (MuTEP), sintonizado por
medio de algoritmos de enjambres con y sin evolucion. El control de esta plataforma requiere
la estimacion de varios modelos, por lo cual el problema se puede considerar multiobjetivo.
En la seccion 4.1 se presenta la plataforma de experimentacion. A continuacion, en la
seccion 4.2 se presenta el esquema de control adaptativo por modelos implementado para
la plataforma de experimentacion. En la seccion 4.3 se presenta los resultados obtenidos
de la implementacion del control adaptativo. Finalmente en la seccion 4.4 se presentan las
conclusiones de este captulo.

49
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Figura 4.1: Aquitectura de la planta en la Plataforma de Experimentacion de Temperatura Multizona (MuTEP)

4.1. Plataforma de Experimentacion de Temperatura


Multizona

La Plataforma de Experimentacion de Temperatura Multizona (Multizone Temperature


Experimentation Platform MuTEP), presentada en [Munoz05a, Munoz05b], es una
estructura compuesta por sensores y actuadores de temperatura organizada en forma
de matriz. La plataforma intenta simular en pequena escala los sistemas utilizados en
la fabricacion de semiconductores, tanto en la creacion de los cristales como en la
elaboracion de las capas foto resistivas, donde es necesario es mantener una temperatura
constante sobre una superficie [Schaper99, El-Awady03, Quijano02]. Estos sistemas tienen
la particularidad de exhibir algunos efectos como interaccion entre las zonas y sensibilidad a
las perturbaciones del medio.

MuTEP esta compuesta de la planta y un sistema de adquisicion de datos. La planta,


cuya arquitectura se muestra en la figura 4.1, esta compuesta por veinticinco sensores
integrados de temperatura y dieciseis bombillos incandescentes, organizados en dieciseis
zonas compuestas por un actuador y sus cuatro sensores adyacentes. Debido a esta
disposicion, un sensor puede estar afectado directamente por la accion desde uno hasta
cuatro actuadores, acoplando las salidas a varias entradas. El sistema de adquisicion de
datos esta compuesto por cuatro modulos basados en un microcontrolador de bajo costo.
Cada modulo se encarga de la administracion de un cuadrante del proceso, compuesto por
cuatro zonas adyacentes, al transferir los datos sensados y las acciones de control entre el
proceso y un computador personal. La arquitectura general de la plataforma se muestra en la
figura 4.2.

La plataforma MuTEP se ha utilizado con anterioridad en pruebas de algoritmos de enjambres


para la asignacion dinamica de recursos [Munoz05a] y regulacion de temperatura usando
la exploracion directa de la superficie [Alfonso07a]. El desafo que presenta MuTEP como

50
4.2 Control Indirecto Adaptativo

Figura 4.2: Arquitectura general de la Plataforma de Experimentacion de Temperatura Multizona (MuTEP)

plataforma de experimentacion es obtener temperaturas uniformes en todos los sensores.


En los anteriores trabajos se encontro que la temperatura en los bordes de la estructura
se mantienen a menor temperatura que aquellos en el interior, haciendo necesario realizar
acciones de control de mayor amplitud en los actuadores cercanos a los bordes. Esta
accion afecta a los sensores internos haciendo necesario escoger una accion de control que
al mismo tiempo eleve la temperatura externa sin afectar sustancialmente la temperatura
interna.

4.2. Control Indirecto Adaptativo

La mayora de las tecnicas para disenar sistemas de control estan basadas en un buen
entendimiento de la planta bajo estudio y su entorno. Sin embargo, en algunas ocasiones,
la planta a controlar es muy compleja y sus procesos basicos no son completamente
entendidos. En este caso, las tecnicas de control pueden ser complementadas con tecnicas
de identificacion realizadas de manera recursiva, para obtener progresivamente un mejor
entendimiento de la planta a controlar por medio de un modelo que es actualizado
periodicamente en base a los ultimos datos. Esta tecnica, denominada control adaptativo,
permite utilizar el modelo identificado para disenar un controlador [Sastry89].

Existen diversas estructuras de control adaptativo. Una de ellas, los reguladores


autoajustados o control adaptativo indirecto (Indirect Adaptive Control IAC), utiliza un
controlador cuyos parametros son obtenidos de una estimacion de los parametros de la
planta, considerando que el modelo es fiel a la planta en ese periodo de tiempo. A este
principio se le conoce como de certeza de equivalencia. El esquema de un IAC se muestra
en la figura 4.3, donde hay una separacion explicita entre la etapa de identificacion y control.
El IAC es muy flexible con respecto a la metodologa de diseno del controlador y el esquema
de identificacion.

51
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Figura 4.3: Esquema de un Controlador Indirecto Adaptativo

Para la implementacion de un IAC para la Plataforma MuTEP se utiliza como esquema


de identificacion un algoritmo de enjambres con y sin evolucion, de tal manera que pueda
realizarse una comparacion entre los dos metodos. Adicionalmente, se hacen las siguientes
consideraciones extradas del conocimiento practico del funcionamiento de la planta, para
disminuir el numero de parametros a calcular por el algoritmo: Primero, una zona, compuesta
por cuatro sensores y un actuador, es un sistema independiente y se ve unicamente afectada
por la accion de control de su actuador. Segundo todos los sensores de una zona se ven
afectados de igual manera por la accion de control, por lo tanto yi (k) se puede tomar como
el promedio de las salidas de los sensores. Finalmente, debido a la arquitectura simetrica del
sistema, las zonas ubicadas en las esquinas, los bordes y el centro son identicas entre s, por
lo tanto pueden ser representadas por el mismo modelo, a lo que se denomina acoplamiento.
Con estas consideraciones podemos elaborar un modelo para la iesima zona de primer
(Ecuacion 4.1) y de segundo (Ecuacion 4.2) orden, donde i , i , i y i son los parametros
estimados del modelo, yi (k) es la salida actual del sistema y ui (k n) y yi (k n) son la
accion de control y la salida del sistema en el nesimo instante anterior.

yi (k) = i yi (k 1) + i ui (k 1) (4.1)

yi (k) = i yi (k 1) + i yi (k 2) + i ui (k 1) + i ui (k 2) (4.2)

Haciendo uso del criterio de certeza de equivalencia, se puede extraer una ley de control al
desplazar temporalmente el modelo un periodo de tiempo hacia adelante. En este instante,
la salida deseada ri (k) reemplaza la salida del sistema. Al despejar la salida de control ui (k)

52
4.2 Control Indirecto Adaptativo

obtenemos un controlador inverso de primer (Ecuacion 4.3) y segundo (Ecuacion 4.4) orden.

1
ui (k) = (ri (k) i yi (k)) (4.3)
i

1 
ui (k) = ri (k) i yi (k) i yi (k 1) i ui (k 1) (4.4)
i

El siguiente paso en el diseno del controlador adaptativo es formular la funcion de costo para
el algoritmo de enjambres. Teniendo en cuenta el objetivo de obtener un modelo parametrico
de la zona se considera la suma del error absoluto de identificacion en las ultimas n muestras
como la funcion objetivo (Ecuacion 4.5) para la zona, donde y (k n) y y (k n) es la salida
real y estimada de la planta respectivamente en el instante k n.

m
Ji = |yi (k n) yi (k n)| (4.5)
n=0

El sistema requiere la minimizacion de dieciseis funciones objetivo independientes Ji . Puesto


que los algoritmos consideran unicamente una funcion objetivo, es necesario realizar algunas
adaptaciones para que los parametros seleccionados sean los adecuados. Teniendo en
cuenta que el error deseado en todas las zonas debe ser cero, la funcion objetivo que motiva
la exploracion del algoritmo corresponde al valor maximo entre las dieciseis funciones de
costo J = max Ji , garantizando que el mejor individuo sera aquel que posea el menor maximo
error entre todas las funciones. Los parametros i , i , i y i del controlador no son tomados
del mejor individuo sino de toda la poblacion identificando los individuos cuyo valor de Ji sea
el menor en la poblacion.

Finalmente, se definen tres arquitecturas para el IAC: Controlador de primer orden con
acoplamiento (IAC1), Controlador de segundo orden con acoplamiento (IAC2), Controlador
de primer orden sin acoplamiento (IAC3). Se requiere la identificacion de 3 modelos de primer
orden para IAC1 con un total de 6 parametros, 3 modelos de segundo orden para IAC2 con
un total de 12 parametros IAC2, y 16 modelos de primer orden para IAC3 con un total de 32
parametros, cuyos rangos son [0 1,10] para i y i , y [1 20] para i y i . Para los controladores
acoplados, se utiliza el promedio de los valores de Ji de las zonas acopladas para obtener
el mejor individuo. Los algoritmos de optimizacion seleccionados para el experimento son
BSFO, IWPSO, EvBSFO y EvPSO, con los parametros mostrados en la tabla 4.1, donde d
es la diagonal del espacio de busqueda y epoch es el numero de iteraciones del algoritmo
por instante, que para EvBSFO es menor debido a su mayor tiempo de computo. La accion
de control entregada por el estimador es filtrada al promediarla con la ultima accion utilizada,

53
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

No. Nombre Parametros

1 BSFO ped = 0,10 pre = 0,20 Ci = 0,05d Ns = 10 epoch = 50


2 IWPSO mv = 0,01d w = 0,600 c1 = c2 = 2,000 epoch = 50
3 EvBSFO = 50 = 5 Ci = 0,05d Ns = 10 epoch = 10
4 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c1 = c2 = 1,700 epoch = 50

Tabla 4.1: Parametros de los algoritmos para el control adaptativo

con el objetivo de evitar cambios excesivos que producen mediciones ruidosas, segun lo
encontrado en [Alfonso07a].

4.3. Procedimiento y Resultados

Para evaluar el desempeno del controlador, se realizo un experimento con referencia


constante (35 C, 40 C y 45 C) durante 5 minutos, con diez repeticiones cada uno en
volumenes de control infinito (estructura expuesta al ambiente) y aislado (estructura cubierta
por un recipiente de icopor) para todas las arquitecturas y algoritmos de identificacion (720
experimentos). Adicionalmente se efectuo un experimento con referencia variable (40 C
35 C 45 C) durante 15 minutos, con cinco repeticiones cada uno en volumenes de control
infinito y aislado para los algoritmos evolutivos (60 experimentos), con el objetivo de asegurar
que el sistema no presenta estancamiento.

En las figuras 4.4 y 4.5, se observan resultados tpicos del control con identificacion por
enjambre de bacterias y de partculas no evolutivos, donde se presentan fallas generalizadas
de los controladores debido a la incapacidad del identificador de obtener un modelo adecuado
del sistema. Para el caso del algoritmo BSFO con volumen infinito (Figura 4.4), el sistema
genera una accion de control fuertemente oscilatoria sin convergencia sobre todos los
actuadores. El resultado es una perdida total de la referencia de 35 C en el area central
de la matriz de sensores, alcanzando temperaturas cercanas a los 50 C. Para el caso del
algoritmo IWPSO con volumen aislado (Figura 4.5) se produce un fenomeno diferente, donde
la falla aparece al presentarse un estancamiento del controlador en una accion de control
maxima sobre varios actuadores. Esto conlleva una perdida total de la referencia de 45 C
sobre la mayora de la matriz de sensores, e inclusive elevando la temperatura a cerca de
80 C.

Estos resultados muestran la necesidad de realizar modificaciones sobre el esquema


de identificacion para encontrar un conjunto de parametros adecuado para mejorar el
desempeno del algoritmo, puesto que aquellos sugeridos como generales en el captulo 2,
no son utiles en este problema. Por lo tanto, se prosigue con la aplicacion de los enjambres
evolutivos al problema de control.

54
4.3 Procedimiento y Resultados

Temperature Signals
60 60 60 60 60
50 50 50 50 50 1 1 1 1
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 100200 0 100200 0 100200 0 100200 0 100200 0 0 0 0
60 60 60 60 60 0 100 200 0 100 200 0 100 200 0 100 200
50 50 50 50 50
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 100200 0 100200 0 100200 0 100200 0 100200 0.5 0.5 0.5 0.5


60 60 60 60 60
50 50 50 50 50 0 0 0 0
0 100 200 0 100 200 0 100 200 0 100 200
40 40 40 40 40
30 30 30 30 30 1 1 1 1
0 100200 0 100200 0 100200 0 100200 0 100200
60 60 60 60 60 0.5 0.5 0.5 0.5
50 50 50 50 50
40 40 40 40 40 0 0 0 0
30 30 30 30 30 0 100 200 0 100 200 0 100 200 0 100 200
0 100200 0 100200 0 100200 0 100200 0 100200
60 60 60 60 60 1 1 1 1
50 50 50 50 50
0.5 0.5 0.5 0.5
40 40 40 40 40
30 30 30 30 30 0 0 0 0
0 100200 0 100200 0 100200 0 100200 0 100200 0 100 200 0 100 200 0 100 200 0 100 200
Time (s)

Figura 4.4: Resultados obtenidos con el IAC1 con identificacion por BSFO con referencia constante de 35 C y volumen infinito: (Izquierda)
Senales de temperatura (Derecha) Acciones de control

Temperature Signals
80 80 80 80 80 1 1 1 1
60 60 60 60 60
40 40 40 40 40 0.5 0.5 0.5 0.5
0 100200 0 100200 0 100200 0 100200 0 100200 0 0 0 0
80 80 80 80 80 0 100 200 0 100 200 0 100 200 0 100 200
60 60 60 60 60 1 1 1 1
40 40 40 40 40
Temperature (C)

0 100200 0 100200 0 100200 0 100200 0 100200 0.5 0.5 0.5 0.5


80 80 80 80 80 0 0 0 0
60 60 60 60 60 0 100 200 0 100 200 0 100 200 0 100 200
40 40 40 40 40
1 1 1 1
0 100200 0 100200 0 100200 0 100200 0 100200
80 80 80 80 80 0.5 0.5 0.5 0.5
60 60 60 60 60
0 0 0 0
40 40 40 40 40 0 100 200 0 100 200 0 100 200 0 100 200
0 100200 0 100200 0 100200 0 100200 0 100200
1 1 1 1
80 80 80 80 80
60 60 60 60 60 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
0 100200 0 100200 0 100200 0 100200 0 100200 0 100 200 0 100 200 0 100 200 0 100 200
Time (s)

Figura 4.5: Resultados obtenidos con el IAC3 con identificacion por IWPSO con referencia constante de 40 C y volumen aislado: (Izquierda)
Senales de temperatura (Derecha) Acciones de control

En las figuras 4.6, 4.7 y 4.8, se observan resultados tpicos del control con identificacion
por enjambre de bacterias evolutivo, donde se presentan algunas mejoras con respecto a lo
obtenido con el algoritmo BSFO (Figura 4.4), en particular la generacion de una accion de
control mas suave. Para el caso del controlador IAC1 con volumen aislado (Figura 4.6), se
produce una accion de control fuerte en los instantes iniciales del experimento que decrece
rapidamente a valores cercanos o iguales a cero en todos los actuadores, aunque se observa
una tendencia a evitar tomar acciones sobre los actuadores centrales. Para el caso del
controlador IAC2 con volumen infinito (Figura 4.7), la exposicion a la temperatura ambiente
hace necesario producir una accion de control mayor, en particular sobre los bordes de
la matriz, nuevamente evitando producir acciones fuertes sobre los actuadores centrales,
aunque se producen algunos picos alrededor del segundo 200 del experimento, los cuales
producen una leve incremento que es rapidamente corregido. Para el caso del controlador

55
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Temperature Signals
50 50 50 50 50 1 1 1 1
40 40 40 40 40
30 30 30 30 30 0.5 0.5 0.5 0.5
0 200 0 200 0 200 0 200 0 200 0 0 0 0
50 50 50 50 50 0 200 0 200 0 200 0 200
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 200 0 200 0 200 0 200 0 200 0.5 0.5 0.5 0.5


50 50 50 50 50 0 0 0 0
40 40 40 40 40 0 200 0 200 0 200 0 200
30 30 30 30 30
1 1 1 1
0 200 0 200 0 200 0 200 0 200
50 50 50 50 50 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
30 30 30 30 30 0 200 0 200 0 200 0 200
0 200 0 200 0 200 0 200 0 200
1 1 1 1
50 50 50 50 50
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 0 0 0
0 200 0 200 0 200 0 200 0 200 0 200 0 200 0 200 0 200
Time (s)

Figura 4.6: Resultados obtenidos con el IAC1 con identificacion por EvBSFO con referencia constante de 35 C y volumen aislado:
(Izquierda) Senales de temperatura (Derecha) Acciones de control

Temperature Signals
50 50 50 50 50 1 1 1 1
40 40 40 40 40
30 30 30 30 30 0.5 0.5 0.5 0.5
0 100200 0 100200 0 100200 0 100200 0 100200 0 0 0 0
50 50 50 50 50 0 100 200 0 100 200 0 100 200 0 100 200
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 100200 0 100200 0 100200 0 100200 0 100200 0.5 0.5 0.5 0.5


50 50 50 50 50 0 0 0 0
40 40 40 40 40 0 100 200 0 100 200 0 100 200 0 100 200
30 30 30 30 30
1 1 1 1
0 100200 0 100200 0 100200 0 100200 0 100200
50 50 50 50 50 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
30 30 30 30 30 0 100 200 0 100 200 0 100 200 0 100 200
0 100200 0 100200 0 100200 0 100200 0 100200
1 1 1 1
50 50 50 50 50
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 0 0 0
0 100200 0 100200 0 100200 0 100200 0 100200 0 100 200 0 100 200 0 100 200 0 100 200
Time (s)

Figura 4.7: Resultados obtenidos con el IAC2 con identificacion por EvBSFO con referencia variable y volumen infinito: (Izquierda) Senales
de temperatura (Derecha) Acciones de control

Temperature Signals
50 50 50 50 50 1 1 1 1
40 40 40 40 40
30 30 30 30 30 0.5 0.5 0.5 0.5
0 500 0 500 0 500 0 500 0 500 0 0 0 0
50 50 50 50 50 0 500 0 500 0 500 0 500
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 500 0 500 0 500 0 500 0 500 0.5 0.5 0.5 0.5


50 50 50 50 50 0 0 0 0
40 40 40 40 40 0 500 0 500 0 500 0 500
30 30 30 30 30
1 1 1 1
0 500 0 500 0 500 0 500 0 500
50 50 50 50 50 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
30 30 30 30 30 0 500 0 500 0 500 0 500
0 500 0 500 0 500 0 500 0 500
1 1 1 1
50 50 50 50 50
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 0 0 0
0 500 0 500 0 500 0 500 0 500 0 500 0 500 0 500 0 500
Time (s)

Figura 4.8: Resultados obtenidos con el IAC3 con identificacion por EvBSFO con referencia variable y volumen infinito: (Izquierda) Senales
de temperatura (Derecha) Acciones de control

56
4.3 Procedimiento y Resultados

No. Nombre Ecuacion

1 Temperatura final promedio 1


y f = 25 25
i=1 yi
ry f
2 Error relativo porcentual ER =q r 100 %
2
3 Desviacion de la superficie = 1
25 25
j=1 yi y f
tf 2
2560 i=1 k=t f 60 (r yi (k))
1 25
4 Error medio cuadrado MSE =
t
1
25
i=1 k=t f 60 |r yi (k)|
f
5 Error medio absoluto MAE = 2560
tf 2
6 Error medio cuadrado por el tiempo MT SE = 2560 25
1
i=1 k=t f 60 k (r yi (k))
tf
7 Error medio absoluto por el tiempo MTAE = 2560 i=1 k=t
1 25
k |r yi (k)|
f 60
tf
8 Suavidad de la accion de control CAS = 16t1 1 16i=1 k=1 i u (k) ui (k 1)
f
tf
9 Accion de control promedio CAA = 16t i=1 t=0 ui (k)
1 16
f

Tabla 4.2: Indices de desempeno para la comparacion de los controladores

IAC3 con volumen infinito y referencia variable (Figura 4.8) el controlador genera una accion
que permite el seguimiento de la referencia de manera adecuada en mayor parte de la
estructura, entre ella la generacion de una accion de control mnima durante el paso de
40 C 35 C. La accion de control es consecuente con lo observado en el IAC2.

En las figuras 4.9, 4.10 y 4.11, se observan resultados tpicos del control con identificacion por
enjambre de partculas evolutivo, donde se presenta un desempeno adecuado del controlador
debido a las mejoras en el esquema de identificacion proporcionadas por la evolucion de los
parametros. A diferencia de los resultados obtenidos con el algoritmo IWPSO (Figura 4.5), el
sistema genera acciones de control inicialmente altas, pero que decrecen rapidamente. Para
el caso del controlador IAC1 con volumen infinito (Figura 4.9), el sistema no produce accion
de control sobre el area central de la matriz de sensores evitando la perdida de la referencia.
Sin embargo existen sensores que no alcanzan la temperatura objetivo, como por ejemplo
el sensor (1,4) el cual alcanza una temperatura estable muy inferior. La observacion de los
sensores vecinos muestra que este resultado es producto de aproximar la salida de la zona
al promedio de sus sensores constituyentes. Para el caso del controlador IAC2 con volumen
aislado (Figura 4.10), el identificador cambia su comportamiento al reducir sustancialmente
su accion de control, para obtener una temperatura superior. Finalmente, para el caso del
controlador IAC3 con volumen aislado y referencia variable (Figura 4.11), el sistema sigue la
referencia de manera adecuada, inclusive realizado una accion de control mnima durante
el paso de 40 C 35 C. La accion de control es consecuente con lo observado en el
IAC2, donde una menor accion de control genera un mayor incremento de temperatura en
el volumen aislado.

Para evaluar el comportamiento del IAC con identificacion por enjambres con y sin evolucion
de tal manera que se pueda realizar una comparacion objetiva entre los algoritmos, se hace
uso de los ndices de desempeno mostrados en la tabla 4.2, donde yi es el promedio de la
temperatura del iesimo sensor de las ultimas 60 muestras, r es el valor de referencia del
experimento, yi (k) corresponde a la temperatura del iesimo sensor en el instante k, ui (k)

57
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Temperature Signals
50 50 50 50 50 1 1 1 1
40 40 40 40 40
30 30 30 30 30 0.5 0.5 0.5 0.5
0 100200 0 100200 0 100200 0 100200 0 100200 0 0 0 0
50 50 50 50 50 0 100 200 0 100 200 0 100 200 0 100 200
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 100200 0 100200 0 100200 0 100200 0 100200 0.5 0.5 0.5 0.5


50 50 50 50 50 0 0 0 0
40 40 40 40 40 0 100 200 0 100 200 0 100 200 0 100 200
30 30 30 30 30
1 1 1 1
0 100200 0 100200 0 100200 0 100200 0 100200
50 50 50 50 50 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
30 30 30 30 30 0 100 200 0 100 200 0 100 200 0 100 200
0 100200 0 100200 0 100200 0 100200 0 100200
1 1 1 1
50 50 50 50 50
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 0 0 0
0 100200 0 100200 0 100200 0 100200 0 100200 0 100 200 0 100 200 0 100 200 0 100 200
Time (s)

Figura 4.9: Resultados obtenidos con el IAC1 con identificacion por EvPSO con referencia constante de 40 C y volumen infinito: (Izquierda)
Senales de temperatura (Derecha) Acciones de control

Temperature Signals
50 50 50 50 50 1 1 1 1
40 40 40 40 40
30 30 30 30 30 0.5 0.5 0.5 0.5
0 100200 0 100200 0 100200 0 100200 0 100200 0 0 0 0
50 50 50 50 50 0 100 200 0 100 200 0 100 200 0 100 200
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 100200 0 100200 0 100200 0 100200 0 100200 0.5 0.5 0.5 0.5


50 50 50 50 50 0 0 0 0
40 40 40 40 40 0 100 200 0 100 200 0 100 200 0 100 200
30 30 30 30 30
1 1 1 1
0 100200 0 100200 0 100200 0 100200 0 100200
50 50 50 50 50 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
30 30 30 30 30 0 100 200 0 100 200 0 100 200 0 100 200
0 100200 0 100200 0 100200 0 100200 0 100200
1 1 1 1
50 50 50 50 50
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 0 0 0
0 100200 0 100200 0 100200 0 100200 0 100200 0 100 200 0 100 200 0 100 200 0 100 200
Time (s)

Figura 4.10: Resultados obtenidos con el IAC2 con identificacion por EvPSO con referencia constante de 45 C y volumen aislado:
(Izquierda) Senales de temperatura (Derecha) Acciones de control

Temperature Signals
50 50 50 50 50 1 1 1 1
40 40 40 40 40
30 30 30 30 30 0.5 0.5 0.5 0.5
0 500 0 500 0 500 0 500 0 500 0 0 0 0
50 50 50 50 50 0 500 0 500 0 500 0 500
40 40 40 40 40 1 1 1 1
30 30 30 30 30
Temperature (C)

0 500 0 500 0 500 0 500 0 500 0.5 0.5 0.5 0.5


50 50 50 50 50 0 0 0 0
40 40 40 40 40 0 500 0 500 0 500 0 500
30 30 30 30 30
1 1 1 1
0 500 0 500 0 500 0 500 0 500
50 50 50 50 50 0.5 0.5 0.5 0.5
40 40 40 40 40
0 0 0 0
30 30 30 30 30 0 500 0 500 0 500 0 500
0 500 0 500 0 500 0 500 0 500
1 1 1 1
50 50 50 50 50
40 40 40 40 40 0.5 0.5 0.5 0.5
30 30 30 30 30
0 0 0 0
0 500 0 500 0 500 0 500 0 500 0 500 0 500 0 500 0 500
Time (s)

Figura 4.11: Resultados obtenidos con el IAC3 con identificacion por EvPSO con referencia variable y volumen aislado: (Izquierda) Senales
de temperatura (Derecha) Acciones de control

58
4.3 Procedimiento y Resultados

o o
Temperatura Final Promedio ( C) Temperatura Final Promedio ( C)

60 60
IAC1

IAC1
40 40
20 20
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

60 60
IAC2

IAC2
40 40
20 20
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

60 60
IAC3

IAC3
40 40
20 20
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.12: Temperatura final promedio con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Error Relativo (%) Error Relativo (%)


40 100
IAC1

IAC1

20 50

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
40 100
IAC2

IAC2

20 50

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
40 100
IAC3

IAC3

20 50

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.13: Error relativo con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

corresponde a la accion de control del iesimo actuador en el instante k, y t f corresponde al


instante final del experimento equivalente a 300 segundos.

Los valores obtenidos de los ndices para el experimento con volumen infinito y aislado
y referencia constante se muestran en las figuras 4.124.20, donde se observan algunas
ventajas de los controladores con identificadores evolutivos sobre los no evolutivos, en
particular la capacidad del identificador de adaptarse a nuevas condiciones de funcionamiento
de la planta, debidas a un cambio en su dinamica.

En la figura 4.12 se muestra el resultado para t f . Tanto para el experimento con volumen
infinito como aislado, el mejor desempeno obtenido por los identificadores no evolutivos esta
representado por el IAC2, que es ligeramente inferior al desempeno de los identificadores
evolutivos. Sin embargo, para IAC1 e IAC2 los resultados obtenidos con identificacion

59
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

o o
Dispersin ( C) Dispersin ( C)
10 10
IAC1

IAC1
5 5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
10 10
IAC2

IAC2
5 5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
10 10
IAC3

IAC3
5 5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.14: Dispersion de la superficie con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Error Cuadrado Medio Error Cuadrado Medio


100 800
600
IAC1

IAC1

50 400
200
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

150
30
100
IAC2

IAC2

20
10 50

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

300 1500
200
IAC3

IAC3

1000
100 500

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.15: Error cuadrado medio con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

evolutiva son claramente superiores, en particular en el experimento con volumen aislado.


En todas las pruebas el mejor desempeno obtenido en terminos de t f fue presentado por
IAC2EvPSO.

En la figura 4.13 se muestra el resultado para ER. La figura corrobora lo encontrado en t f


donde el mejor desempeno de los controladores se obtiene en IAC2. Se observa con mayor
claridad la desventaja significativa de los identificadores no evolutivos en IAC1 e IAC3. Para
los algoritmos de bacterias se encuentra que el error es mayor a bajas temperaturas, mientras
que no se percibe una tendencia para los algoritmos de partculas. Se observa errores de tipo
catastrofico en el desempeno de IAC3IWPSO para ambos experimentos.

En la figura 4.14 se muestra el resultado para . El experimento con volumen infinito muestra
que los algoritmos evolutivos poseen una superficie mas uniforme, al ser en la mayora

60
4.3 Procedimiento y Resultados

Error Absoluto Medio Error Absoluto Medio


8 30
6 20
IAC1

IAC1
4
10
2
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

4 10
IAC2

IAC2
2 5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

30
10
IAC3

IAC3
20
5 10
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.16: Error absoluto medio con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

4 Error Cuadrado por el Tiempo Medio 5 Error Cuadrado por el Tiempo Medio
x 10 x 10
3
2
2
IAC1

IAC1

1 1

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
4
10000 x 10
4
IAC2

IAC2

5000
2

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
4 5
x 10 x 10
4
IAC3

IAC3

5
2

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.17: Error cuadrado por el tiempo medio con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

de los casos menores que sus contrapartes no evolutivos, a excepcion del IAC2 entre
IWPSO y EvPSO. Para el experimento con volumen aislado muestra errores catastroficos
en los controladores IAC1 e IAC3 para los identificadores no evolutivos. En el caso de
los identificadores evolutivos presentan una superficie con baja distorsion en todos los
controladores.

En las figuras 4.15 y 4.16 se muestran los resultados para MSE y MAE . En el caso de
los errores promedio se observa una tendencia a producirse errores mayores que uno,
al presentarse valores altos de error cuadrado. Se puede pensar que esta tendencia se
corregira, si en lugar de utilizar el error absoluto de identificacion (ecuacion 4.5) se usa el
error cuadrado. Sin embargo, durante la etapa de diseno se encontro que el error cuadrado
de identificacion produca un desempeno inferior al error absoluto. Los resultados muestran
que el menor error cuadrado se obtiene con IAC2 en todos los casos. Los identificadores

61
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Error Absoluto por el Tiempo Medio Error Absoluto por el Tiempo Medio

2000 8000
6000
IAC1

IAC1
1000 4000
2000
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

3000
1000
IAC2

IAC2
2000
500 1000
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

8000
3000
6000
IAC3

IAC3
2000
4000
1000 2000
0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.18: Error absoluto por el tiempo medio con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Suavidad de la Accin de Control Suavidad de la Accin de Control


0.1 0.1
IAC1

IAC1

0.05 0.05

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
0.1 0.1
IAC2

IAC2

0.05 0.05

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
0.1 0.1
IAC3

IAC3

0.05 0.05

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.19: Suavidad de la accion de control con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

evolutivos presentan ndices de error cuadrado y absoluto de valores similares en todos los
controladores. Caso contrario ocurre con los identificadores no evolutivos donde su mejor
desempeno se presenta en IAC2. El error absoluto tiene valores similares a los obtenidos con
la dispersion mostrando la existencia de una relacion entre estos dos valores.

En las figuras 4.17 y 4.18 se muestran el resultado para MT SE y MTAE , que permiten
establecer una tendencia del error. Los resultados obtenidos permiten concluir que para los
identificadores no evolutivos, a medida que incrementa la temperatura, el error es menor,
debido a que los errores catastroficos resultan en temperaturas elevadas relativamente
cercanas a la referencia. En cuanto al error en los identificadores evolutivos, se observa
un incremento cercano al proporcional, que indica que el error se mantiene en un rango
constante a pesar de incrementar el tiempo. Nuevamente el controlador IAC2 tiene los
menores ndices con todos los identificadores. IWPSO es altamente inefectivo y presenta

62
4.3 Procedimiento y Resultados

Accin de Control Promedio Accin de Control Promedio


1 1
IAC1

IAC1
0.5 0.5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
1 1
IAC2

IAC2
0.5 0.5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO
1 1
IAC3

IAC3
0.5 0.5

0 0
BSFO EvBSFO IWPSO EvPSO BSFO EvBSFO IWPSO EvPSO

Figura 4.20: Accion de control promedio con referencia fija: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

una tendencia de temperatura creciente, lo que implica que durante el experimento, no solo
el error fue alto, sino que la temperatura continua creciendo.

En las figuras 4.19 y 4.20 se muestran los resultados para CAS y CAA. El analisis de estos
ndices permiten concluir que los identificadores por partculas presentan una accion de
control mas uniforme al presentar un menor CAS, mientras que los identificadores evolutivos
poseen un CAA bajo. Los altos valores de CAA presentados por los identificadores no
evolutivos indican una accion de control errada producida por el sistema de identificacion,
generando una perdida de la senal de referencia por sobrepaso. En el caso del controlador
por BSFO, los valores de CAS indican una accion de control oscilante, que produce el efecto
observado en la figura 4.4.

Los valores obtenidos de los ndices para el experimento con volumen infinito y aislado y
referencia variable se muestran en las figuras 4.214.29, donde se comprueban los resultados
obtenidos por los identificadores evolutivos, y ademas se demuestra que el algoritmo no se
estanca sobre una referencia en particular.

En la figura 4.21 se muestra el resultado para t f . El resultado muestra que el controlador se


ajusta a la nueva referencia exitosamente. Al igual que los experimentos con referencia fija,
el controlador IAC2 tiene el desempeno mas adecuado. Ademas se observa que el sistema
tiene un mejor desempeno a partir de la referencia de 35 C. Este comportamiento indica que
a mayor tiempo de operacion, el identificador evolutivo obtiene mayor informacion sobre la
dinamica del sistema, haciendo una estimacion mas precisa. Este efecto es notorio en ambos
experimentos y es corroborado en la figura 4.22, donde se muestra el resultado para ER. Los
casos donde el efecto es mas notorio es IAC1-EvBSFO con volumen infinito e IAC2-EvBSFO
con volumen aislado. El resultado obtenido por IAC3-EvPSO con volumen aislado representa
el peor de los casos entre los experimentos realizados y se observa un desempeno inferior

63
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

o o
Temperatura Final Promedio ( C) Temperatura Final Promedio ( C)
60 60

40 40
IAC1

IAC1
20 20

0 0
EvBSFO EvPSO EvBSFO EvPSO
60 60

40 40
IAC2

IAC2
20 20

0 0
EvBSFO EvPSO EvBSFO EvPSO
60 60

40 40
IAC3

IAC3
20 20

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.21: Temperatura final promedio con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Error Relativo (%) Error Relativo (%)


20 20
IAC1

IAC1

10 10

0 0
EvBSFO EvPSO EvBSFO EvPSO
20 20
IAC2

IAC2

10 10

0 0
EvBSFO EvPSO EvBSFO EvPSO
20 20
IAC3

IAC3

10 10

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.22: Error relativo con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

en la referencia de 35 C, instante en el cual, los actuadores deberan ser apagados. El fallo


en la referencia indica que el controlador no efectuo un apagado completo de los actuadores
con el objetivo de descender la temperatura.

En la figura 4.23 se muestra el resultado para . Los valores obtenidos indican un incremento
en la dispersion de la superficie al incrementar la temperatura, un efecto tambien observado
en los experimentos de referencia fija. En algunas situaciones tambien se observa que la
dispersion a 40 C es mayor que la dispersion a 45 C, corroborando la tendencia a disminuir,
no solo el error, sino tambien la dispersion de la superficie a medida que pasa el tiempo del
experimento.

En las figuras 4.24 y 4.25 se muestran el resultado para MSE y MAE respectivamente. Los
resultados obtenidos en estos ndices muestran dos aspectos para considerarse. El primero

64
4.3 Procedimiento y Resultados

o o
Dispersin ( C) Dispersin ( C)

4 4
IAC1

IAC1
2 2

0 0
EvBSFO EvPSO EvBSFO EvPSO

4 4
IAC2

IAC2
2 2

0 0
EvBSFO EvPSO EvBSFO EvPSO

4 4
IAC3

IAC3
2 2

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.23: Dispersion de la superficie con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Error Cuadrado Medio Error Cuadrado Medio


30 6
20
IAC1

IAC1

4
10 2
0 0
EvBSFO EvPSO EvBSFO EvPSO
30
15
20
IAC2

IAC2

10
5 10

0 0
EvBSFO EvPSO EvBSFO EvPSO
15
60
10
IAC3

IAC3

40
5 20
0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.24: Error cuadrado medio con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

es la diferencia sustancial de desempeno entre el IAC3EvBSFO e IAC2-EvPSO con respecto


a los demas controladores en el experimento con volumen aislado. Esto se debe a que
ambos controladores poseen errores menores a uno, indicando que el identificador en ambos
experimentos presenta el mejor caso para cada uno de los algoritmos. Los resultados en el
experimento con volumen infinito son similares para ambos algoritmos. Tambien se observa
un mayor error sobre la referencia de 40 C, acorde con lo discutido anteriormente. Los valores
de error absoluto tambien presentan similitud con los obtenidos por el ndice de dispersion,
confirmando lo observado en el experimento de referencia fija.

En las figuras 4.26 y 4.27 se muestran el resultado para MT SE y MTAE respectivamente. El


analisis de estos ndices permite establecer que el algoritmo EvBSFO tiende a reducir su error
con el tiempo, debido a que las diferencias entre los valores para las referencias no sufren
de incrementos tan pronunciados como los observados en EvPSO. Para EvBSFO, el mejor

65
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Error Absoluto Medio Error Absoluto Medio


4 2
IAC1

IAC1
2 1

0 0
EvBSFO EvPSO EvBSFO EvPSO

4
3
IAC2

IAC2
2 2
1
0 0
EvBSFO EvPSO EvBSFO EvPSO

3
4
IAC3

IAC3
2
2
1
0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.25: Error absoluto medio con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Error Cuadrado por el Tiempo Medio Error Cuadrado por el Tiempo Medio

10000 4000
IAC1

IAC1

5000 2000

0 0
EvBSFO EvPSO EvBSFO EvPSO
15000 8000
6000
10000
IAC2

IAC2

4000
5000
2000
0 0
EvBSFO EvPSO EvBSFO EvPSO
4
x 10
10000 5
IAC3

IAC3

5000

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.26: Error cuadrado por el tiempo medio: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

desempeno lo provee el controlador IAC3. Este resultado se explica en el comportamiento del


algoritmo. EvBSFO y su algoritmo padre, BSFO son busquedas que utilizan la direccion del
gradiente. El diseno del controlador IAC3 permite separar el desempeno de cada identificador
de manera individual, por lo cual, este se ve beneficiado por el comportamiento de EvBSFO.
Para el algoritmo EvPSO el error tiene una tendencia a mantenerse relativamente constante
en el tiempo, al igual que lo observado en el experimento de referencia fija.

En las figuras 4.28 y 4.29 se muestra el resultado para CAS y CAA. El analisis de CAS indica
que el mayor esfuerzo de control se produce en los instantes iniciales del control, donde se
pasa de la temperatura ambiente a la temperatura de referencia de 40 C, en particular para
los controladores acoplados con EvBSFO. Esto tambien indica que a media que transcurre
el tiempo, la accion de control es mas uniforme, efecto que influye en el error del sistema.
Igualmente se puede concluir, que el identificador obtiene, a medida que pasa el tiempo una

66
4.4 Conclusiones

Error Absoluto por el Tiempo Medio Error Absoluto por el Tiempo Medio
3000
1500
2000
IAC1

IAC1
1000
1000 500
0 0
EvBSFO EvPSO EvBSFO EvPSO

3000
1500
2000
IAC2

IAC2
1000
1000 500
0 0
EvBSFO EvPSO EvBSFO EvPSO
3000
4000
2000
IAC3

IAC3
2000
1000

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.27: Error absoluto por el tiempo medio con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

Suavidad de la Accin de Control Suavidad de la Accin de Control

0.04 0.04
IAC1

IAC1

0.02 0.02

0 0
EvBSFO EvPSO EvBSFO EvPSO

0.04 0.04
IAC2

IAC2

0.02 0.02

0 0
EvBSFO EvPSO EvBSFO EvPSO

0.04 0.04
IAC3

IAC3

0.02 0.02

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.28: Suavidad de la accion de control con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

mejor aproximacion del sistema. En cuanto al CAA, la accion de control efectuada sobre la
referencia de 35 C es cercana a cero. Esto se debe a que el sistema, luego de mantenerse
en una referencia superior, debe apagar los actuadores para decrecer la temperatura del
sistema. Los resultados indican que en efecto, el controlador efectua esta accion.

4.4. Conclusiones

En este captulo se presento el diseno y la implementacion de tres arquitecturas de control


indirecto adaptativo para la regulacion de temperatura en la Plataforma de Experimentacion
de Temperatura Multizona (MuTEP), las cuales hacen uso de un algoritmo de enjambres como

67
4. REGULACION DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACION DE
TEMPERATURA MULTIZONA

Accin de Control Promedio Accin de Control Promedio

0.4 0.4
IAC1

IAC1
0.2 0.2

0 0
EvBSFO EvPSO EvBSFO EvPSO

0.4 0.4
IAC2

IAC2
0.2 0.2

0 0
EvBSFO EvPSO EvBSFO EvPSO

0.4 0.4
IAC3

IAC3
0.2 0.2

0 0
EvBSFO EvPSO EvBSFO EvPSO

Figura 4.29: Accion de control promedio con referencia variable: (Izquierda) Sobre volumen infinito (Derecha) Sobre volumen aislado

estrategia de identificacion. El primer paso para la solucion de este problema fue establecer
pautas para que el algoritmo de optimizacion, disenado originalmente para una unica funcion
de costo, sea capaz de optimizar varias funciones de costo independientes, lo cual fue posible
al definir una funcion de costo motivadora del enjambre y seleccionar los parametros de cada
modelo utilizando al mejor individuo por funcion de costo.

Los resultados obtenidos en los experimentos permitieron demostrar que la evolucion de los
enjambres permite obtener mejores resultados en el problema de control, que los obtenidos
al utilizar enjambres con parametros generalizados, alcanzando menores ndices de error
y de dispersion, con acciones de control menores y mas suaves. Adicionalmente, se pudo
confirmar la validez de las simplificacion realizada por medio del acoplamiento de los modelos,
ya que en la mayora de los casos, el controlador de segundo orden presenta un mejor
desempeno que el controlador desacoplado de primer orden.

El siguiente paso en el desarrollo de un controlador para MuTEP consiste en el diseno de


un controlador que considere el efecto de todos los actuadores sobre cada sensor. Las
limitaciones existentes en la actualidad se deben a la necesidad de calcular una gran cantidad
de parametros, para lo cual se debe considerar el uso de sistemas de computo mas veloces
o en paralelo.

68
CAPITULO 5

Conclusiones y Trabajos Futuros

A traves de este documento se ha presentado el diseno, implementacion, aplicacion y prueba


de una metodologa para la autoadaptacion de algoritmos de enjambres por medio de los
conceptos de Estrategias Evolutivas. En los captulos iniciales se presentaron los conceptos
teoricos necesarios para entender el concepto de evolucion de enjambres y su aplicacion
sobre los algoritmos BSFO y PSO, luego se utilizaron dos problemas de control, uno sobre
un sistema sencillo de una entrada una salida y otro sobre la Plataforma de Experimentacion
de Temperatura Multizona (MuTEP), para examinar el comportamiento de los algoritmos en
un problema practico.

En este captulo, se presenta la discusion final de los resultados obtenidos durante el


desarrollo de este trabajo, como una evaluacion de los objetivos propuestos y los posibles
caminos que puede tener a futuro esta investigacion. Inicialmente, en la seccion 5.1 se
presentan los resultados en terminos de los objetivos planteados al inicio de este documento.
Despues, en la seccion 5.2 se presentan las publicaciones derivadas de este trabajo.
Finalmente en la seccion 5.3 se presentan los trabajos futuros sugeridos para la continuacion
de esta investigacion.

69
5. CONCLUSIONES Y TRABAJOS FUTUROS

5.1. Discusion final

La SI es en la actualidad, un area de la investigacion en IA en rapido crecimiento, con una gran


diversidad de metodos basados en diferentes sociedades naturales y aplicaciones diferentes
en varios campos de la ingeniera. Al mismo tiempo, se ha encontrado que continuamente
se producen nuevas modificaciones a los conceptos basicos con el objetivo de mejorar el
desempeno de los algoritmos, en particular el hibridizar su funcionamiento con el de los EA.
Aunque se han dado algunos pasos encaminados a la autoadaptacion de los sistemas, los
trabajos en esta area son aun limitados, por lo que existe aun muchos conceptos por explorar.

Los algoritmos de SI, como metodos de optimizacion a su vez resultan de utilidad en los
sistemas de control al ser sustitutos de otras tecnicas ampliamente utilizadas, como lo son
mnimos cuadrados, algoritmos geneticos, programacion lineal, entre otras. En este trabajo se
mostro la utilidad de estos algoritmos en la sintonizacion de controladores fuera de lnea como
lo son los PID y controladores en lnea como es el IAC. En particular, el IAC resulto altamente
beneficiado con los algoritmos de enjambres evolutivos al ser comparado con aquellos que no
poseen autoadaptacion. La combinacion de enjambres evolutivos e IAC permitio obtener un
controlador que se desempena de manera muy satisfactoria frente a un problema complejo
como lo es MuTEP.

La seleccion de algoritmos de SI disenados para espacios continuos, como lo son BSFO


y PSO, facilito las operaciones de mutacion y seleccion de poblaciones, al contener la
informacion de busqueda en los agentes y no en el espacio, como es el caso de los algoritmos
de hormigas. Al mismo tiempo, los parametros obtenidos por el sistema son numeros reales,
que no requieren de modificacion para ser empleados dentro de controladores.

A su vez, los algoritmos seleccionados permitieron establecer de manera directa los


parametros mas adecuados a evolucionar debido a su influencia en el resultado final. En
ambos casos las caractersticas que dominan la comunicacion entre agentes y el tamano de
paso tienen la mayor influencia sobre el resultado, siendo estos parametros los seleccionados
para su evolucion. Los resultados obtenidos durante el ttest mostraron que en efecto
la autoadaptacion estadisticamente logra mejores resultados que las versiones estaticas,
permitiendo concluir que en efecto la poblacion tiende a una posicion optima dentro del
espacio de parametros de la estrategia.

5.2. Publicaciones resultantes de la investigacion

A continuacion se presentan los resumenes de las publicaciones resultantes de esta


investigacion. Los trabajos descritos contienen resultados preliminares, que ayudaron a

70
5.2 Publicaciones resultantes de la investigacion

determinar los algoritmos y sus parametros a evolucionar, y resultados finales descritos en


cada uno de los captulos anteriores de este documento.

5.2.1. Artculos en Revistas

M.A. Munoz, J.A. Lopez & E.F. Caicedo. An Artificial Bee Hive for Continuous
Optimization. International Journal of Intelligent Systems. Aceptado.
Resumen: In this paper, we present an Artificial BeeHive Algorithm for optimization
in continuous search spaces based on a model aimed at individual bee behavior.
The algorithm defines a series of behavioral rules for each agent to determine what
actions must be carried out. Additionally, our algorithm includes some adaptations
not considered in the biological model to increase the performance in the search for
better solutions. To compare the performance of the algorithm to other swarm-based
algorithms, we conducted statistical analyses by using the so-called t-test. This
comparison is done by using several benchmark functions.

5.2.2. Trabajos en Conferencias

M.A. Munoz, J.A. Lopez & E.F. Caicedo. Control Inteligente usando optimizacion
por colonia de hormigas. En Congreso Internacional de Inteligencia Computacional
CIIC2007. Bogota, 57 Septiembre de 2007.
Resumen: En este artculo se presenta la manera como los algoritmos basados
en colonia de hormigas pueden ser aplicados para resolver problemas en el campo
del control automatico. Los algoritmos basados en colonia de hormigas son una
metodologa perteneciente a la denominada Inteligencia de Enjambres o Colectiva.
En este trabajo se presentan dos aplicaciones de estos algoritmos en el campo del
control de procesos: primero se presenta el control adaptativo indirecto del nivel de un
tanque y, posteriormente, se presenta la asignacion de recursos sobre una grilla de
temperatura. Los resultados obtenidos permiten mostrar que la Inteligencia Colectiva y,
especficamente, los algoritmos basados en colonia de hormigas son una herramienta
prometedora para el desarrollo de controladores inteligentes.

M.A. Munoz, J.A. Lopez & E.F. Caicedo. Optimizacion y Control usando Colonias de
Hormigas. En VII Congreso de la Asociacion Colombiana de Automatica ACA2007.
Santiago de Cali, 2124 de Marzo de 2007.
Resumen: En este artculo se presenta la manera como un algoritmo de optimizacion
en espacios continuos basado en colonia de hormigas puede ser aplicado para resolver

71
5. CONCLUSIONES Y TRABAJOS FUTUROS

problemas en el campo del control automatico. Los algoritmos basados en colonia


de hormigas hacen parte de la denominada Inteligencia de Enjambres o Colectiva.
En este trabajo se presentan dos aplicaciones de este algoritmo en el campo del
control de procesos: primero se presenta la sintonizacion de un controlador PID para
un reactor de agitacion continua, luego el control adaptativo indirecto del nivel de
un tanque. Los resultados obtenidos permiten mostrar que la Inteligencia Colectiva,
y especficamente, los algoritmos basados en colonia de hormigas constituyen una
herramienta prometedora para el desarrollo de controladores inteligentes.

M.A. Munoz, E.F. Caicedo. & J.A. Lopez Estudio Comparativo de Esquemas de
Control Inteligente Aplicado a un Tanque con Agitacion Continua. En VII Congreso de la
Asociacion Colombiana de Automatica ACA2007. Santiago de Cali, 2124 de Marzo
de 2007.
Resumen: En este trabajo se estudia la simulacion de controladores neuronales,
difusos y PID sintonizado evolutivamente para un tanque de calentamiento de
agitacion continua; y se presenta un analisis comparativo del desempeno de los
mismos. Los resultados demostraron la factibilidad y el funcionamiento adecuado de
ciertos controles para esta planta y las dificultades que se podran presentar en
la implementacion de uno u otro para este caso. El trabajo pretende demostrar la
utilidad de estos metodos gracias a su flexibilidad y a la posibilidad de implementar
controladores a plantas cuyo modelo matematico exacto se desconoce.

5.3. Trabajos Futuros

Los resultados obtenidos en este trabajo permiten formular algunas hipotesis cuyo desarrollo
puede ser evaluado en trabajos posteriores. Si bien el estudio de la metodologa de
autoadaptacion se realizo en tres escenarios diferentes, proporcionando una cantidad
suficiente de datos para sustentar las afirmaciones, es necesario realizar un estudio de
estabilidad y convergencia de los algoritmos, en particular sobre los parametros de la
estrategia. El trabajo realizado hasta el momento pudo determinar que la tendencia del
algoritmo es a reducir sus parametros mientras se encuentre en un descenso de gradiente.
De lo contrario el algoritmo incrementara sus parametros.

El siguiente trabajo de importancia es el estudio de las variaciones en la estrategia evolutiva.


Se propone la experimentacion con un tipo de seleccion que incluya a la poblacion padre,
siendo esta una estrategia (1 + ). Se considera, de acuerdo a conocimiento obtenido, que
esta estrategia puede representar cambios menos drasticos de los parametros.

Las pruebas preliminares de este trabajo permitieron establecer la necesidad de utilizar el

72
5.3 Trabajos Futuros

desempeno global como costo para la autoadaptacion. Sin embargo, se sugiere continuar la
exploracion de poblaciones de menor tamano, incluyendo poblaciones de un solo individuo,
similar al encontrado en [Miranda02b]. Este trabajo permitira el uso de la cruza de parametros
entre poblaciones. Sin embargo, cuando se consideran poblaciones de mas de un individuo,
se hace necesario el desarrollo de un algebra de poblaciones.

Junto con estos trabajos, se hace indispensable el estudio de las caractersticas de


cooperacion y competicion a nivel de agentes. Este estudio requiere el analisis por medio
de teora de juegos y el estudio de las caractersticas de equilibrio de Nash del sistema.

De manera similar, se hace interesante la posibilidad de incluir otros esquemas de


comportamiento, que influyan en desempeno de los agentes tanto individual como
colectivamente. Algunos comportamientos propuestos son la prediccion, el aprendizaje por
refuerzo y la curiosidad artificial. La adicion de este tipo de comportamientos encamina la
investigacion hacia el campo de la vida artificial.

Finalmente, en el diseno de un controlador para MuTEP, los resultados obtenidos, aunque


satisfactorios, aun no producen una respuesta completa para el problema, puesto que el
uso del promedio de las salidas no considera aspectos como la distancia de los actuadores
a cada uno de los sensores y los acoplamientos existentes entre zonas no adyacentes. Las
limitaciones existentes en la actualidad se deben a la necesidad de calcular una gran cantidad
de parametros, para lo cual se debe considerar el uso de sistemas de computo mas veloces
o en paralelo.

73
5. CONCLUSIONES Y TRABAJOS FUTUROS

74
APENDICE A

Tablas de resultados

En este apendice se presentan las tablas de resultados complementarias a las graficas de


los experimentos realizados en el captulo 4. La tabla A.1 presenta los valores de los ndices
de desempeno para el experimento con volumen de control infinito y referencia fija. La tabla
A.2 presenta los valores de los ndices de desempeno para el experimento con volumen de
control aislado y referencia fija. La tabla A.3 presenta los valores de los ndices de desempeno
para el experimento con volumen de control infinito y referencia variable. Finalmente, la tabla
A.4 presenta los valores de los ndices de desempeno para el experimento con volumen de
control aislado y referencia variable.

75
A. TABLAS DE RESULTADOS

IAC r yf ER MSE MAE MT SE MTAE CAS CAA


35 42.6349 21.8140 5.0554 88.3989 7.7815 23779.5631 2093.1382 0.0655 0.3418
1 40 46.4264 16.0660 5.5428 76.6472 7.0010 20681.5154 1886.4695 0.0680 0.3882
45 48.3837 7.5192 6.0979 52.6365 5.8916 14164.7997 1585.3563 0.0650 0.4962

35 38.9906 11.4017 3.9536 34.1394 4.6895 9166.3970 1260.3132 0.0502 0.2319


BSFO 2 40 42.7992 6.9981 4.4694 30.5459 4.5240 8218.1093 1217.0833 0.0585 0.2899
45 44.6298 0.8228 5.4405 32.3648 4.8945 8709.7649 1316.8368 0.0664 0.4183

35 43.8688 25.3394 5.2166 107.0651 8.8847 28819.0537 2390.5096 0.0665 0.3433


3 40 46.8624 17.1560 5.6855 80.6223 7.2033 21716.7534 1939.0724 0.0663 0.4143
45 48.6526 8.1168 6.3192 53.8310 5.9602 14469.1345 1602.8443 0.0632 0.5128

35 37.4940 7.1258 2.7508 22.9505 3.4484 6151.6346 925.9584 0.0334 0.2071


1 40 43.1026 7.7566 3.3025 42.0890 4.4382 11330.4484 1193.3282 0.0293 0.2757
45 46.0857 2.4127 3.0615 18.9334 3.2253 5098.0606 868.7391 0.0304 0.3502

35 37.3850 6.8143 2.5638 32.8173 3.4321 8791.7774 920.8207 0.0304 0.1880


EvBSFO 2 40 41.1302 2.8255 2.4889 11.2319 2.6158 3057.9898 706.4792 0.0281 0.2226
45 46.4262 3.1694 3.6260 21.7321 3.6594 5842.9724 984.1693 0.0474 0.3628

35 36.3069 3.7340 2.0602 7.2487 2.0950 1944.6933 562.5189 0.0063 0.1565


3 40 40.7916 1.9790 2.3369 6.9490 2.1321 1866.3596 573.3319 0.0054 0.2246
45 45.7095 1.5768 3.5213 13.5981 3.0709 3659.0578 826.0885 0.0055 0.4447

35 39.7784 13.6524 3.1011 77.1585 5.8469 20762.2272 1572.6040 0.0201 0.2360


1 40 43.4195 8.5488 3.9777 103.5183 5.8138 27870.7442 1563.4648 0.0246 0.3407
45 45.6053 1.3451 4.1782 26.9595 4.0537 7246.8493 1089.6129 0.0285 0.4207

35 34.1307 2.4836 1.8922 5.9428 1.9316 1591.4907 518.7483 0.0053 0.0724


PSO 2 40 38.6066 3.4836 3.1607 18.9821 3.5503 5083.7212 953.6123 0.0160 0.1787
45 42.9425 4.5723 4.0468 31.9400 4.6519 8607.1788 1252.2032 0.0218 0.2831

35 39.8500 13.8572 3.3534 87.1762 5.9229 23475.1076 1593.9445 0.0114 0.2269


3 40 52.9758 32.4396 6.4423 281.8739 13.3404 75896.6281 3590.3421 0.0102 0.5684
45 52.9911 17.7581 6.1435 119.9442 8.6318 32275.3664 2322.3358 0.0153 0.5551

35 35.4525 1.2929 1.9590 4.7143 1.8147 1268.5319 488.1646 0.0021 0.1089


1 40 40.3124 0.7811 3.0278 10.5973 2.7062 2850.3629 727.9133 0.0028 0.2171
45 45.1493 0.3318 3.7939 15.1306 3.4206 4069.5456 920.0982 0.0027 0.3415

35 35.0928 0.2651 2.0740 5.6297 1.9550 1515.6711 526.1025 0.0014 0.0672


EvPSO 2 40 39.9010 0.2476 3.3010 12.7091 3.0044 3415.5400 807.7816 0.0030 0.1761
45 45.7898 1.7552 4.3531 25.9450 4.1986 6980.5856 1129.5172 0.0081 0.3163

35 35.5580 1.5943 2.3945 6.8378 2.1344 1840.3977 574.3833 0.0007 0.0974


3 40 40.4192 1.0481 3.2261 11.2680 2.8622 3030.6384 769.7740 0.0015 0.2110
45 45.4362 0.9693 3.7878 15.2429 3.3930 4098.1674 912.5126 0.0030 0.3348

Tabla A.1: Desempeno del Controlador Indirecto Adaptativo con volumen de control infinito y referencia fija

76
IAC r yf ER MSE MAE MT SE MTAE CAS CAA
35 63.8131 82.3232 5.8314 873.6135 28.8131 235856.3260 7765.5773 0.0691 0.3054
1 40 63.4411 58.6027 5.7613 591.9713 23.4411 160044.1594 6322.3337 0.0691 0.3187
45 67.3120 49.5823 5.8833 543.2126 22.3120 146971.0715 6020.2266 0.0702 0.3364

35 46.5505 33.0015 3.2703 148.1396 11.5505 39942.3935 3111.1076 0.0381 0.1537


BSFO 2 40 49.8753 24.6882 3.6344 114.1759 9.8758 30711.5545 2656.4360 0.0455 0.1956
45 54.6233 21.3851 3.8191 110.6809 9.6239 29838.4839 2592.1437 0.0498 0.2236

35 65.1516 86.1474 5.9188 946.5831 30.1516 255449.0736 8124.1720 0.0690 0.2995


3 40 65.7945 64.4863 5.8401 701.7307 25.7945 189595.2470 6954.4560 0.0698 0.3193
45 67.7837 50.6304 5.9735 557.1639 22.7837 150492.4226 6141.7472 0.0692 0.3427

35 36.2000 3.4285 1.5125 7.6930 1.9776 2018.7465 526.6787 0.0134 0.1018


1 40 40.3593 0.8983 1.6736 4.0563 1.5682 1075.6032 419.9585 0.0140 0.1261
45 45.0574 0.1276 1.6363 3.5183 1.5065 944.4754 404.7785 0.0147 0.1602

35 36.1922 3.4063 1.4206 7.7192 1.8425 2034.7935 491.2548 0.0132 0.0804


EvBSFO 2 40 41.1583 2.8959 1.8714 8.9738 2.0759 2343.2153 553.2136 0.0195 0.1273
45 46.0983 2.4407 2.0877 8.7881 2.2030 2371.4019 593.7378 0.0243 0.1629

35 36.8666 5.3332 1.6912 7.3182 2.2062 1964.8677 592.7785 0.0050 0.0966


3 40 42.0658 5.1644 1.9887 9.9000 2.5007 2658.9222 672.1197 0.0071 0.1274
45 46.4995 3.3322 2.2228 8.2893 2.3056 2221.6818 618.9019 0.0048 0.1759

35 51.1876 46.2504 3.5105 582.7037 16.3783 156991.6105 4404.9778 0.0121 0.2172


1 40 55.6080 39.0199 3.9369 654.5076 16.1064 176550.7267 4338.3031 0.0112 0.2645
45 51.8425 15.2055 3.0082 131.8685 7.8231 35530.5898 2103.7521 0.0219 0.2072

35 34.5927 1.1636 1.0583 1.8170 1.0644 488.9826 286.2992 0.0025 0.0320


PSO 2 40 41.2682 3.1704 1.7983 14.4518 2.9052 3855.0730 778.8036 0.0127 0.0890
45 45.5158 1.1462 2.2189 13.0837 2.8558 3478.5976 764.9258 0.0137 0.1114

35 45.8786 31.0818 3.4841 271.3102 11.3229 73306.6380 3052.8004 0.0153 0.2136


3 40 72.0052 80.0130 7.6603 1517.3603 32.1528 409246.2475 8657.3808 0.0135 0.4486
45 69.4577 54.3504 9.2763 850.1966 24.4578 228916.4779 6578.9176 0.0190 0.3442

35 35.3946 1.1273 1.2031 2.0674 1.1525 556.3310 310.0311 0.0007 0.0481


1 40 40.4794 1.1986 1.3637 2.9592 1.3644 795.4142 366.9701 0.0015 0.0688
45 45.4656 1.0347 1.9340 5.4808 1.8569 1475.0595 499.5555 0.0029 0.1156

35 35.2864 0.8183 1.2201 2.0630 1.1133 554.9062 299.4500 0.0006 0.0261


EvPSO 2 40 40.4629 1.1573 2.0188 5.4775 1.8101 1474.1150 487.0451 0.0018 0.0672
45 45.6300 1.4001 1.8165 6.1407 1.9449 1652.2107 523.0997 0.0024 0.0742

35 38.5257 10.0733 1.6861 63.3891 4.1993 17056.7953 1129.5986 0.0006 0.0562


3 40 41.1093 2.7733 1.9764 6.8943 2.0658 1853.4859 555.5903 0.0012 0.0772
45 46.1912 2.6472 1.9010 7.0609 2.1086 1898.6443 567.1072 0.0032 0.1106

Tabla A.2: Desempeno del Controlador Indirecto Adaptativo con volumen de control aislado y referencia fija

77
A. TABLAS DE RESULTADOS

IAC r yf ER MSE MAE MT SE MTAE CAS CAA


40 42.1277 5.3193 3.0482 29.6753 3.6764 7862.8482 981.0327 0.0317 0.2783
1 35 35.9216 2.6333 1.8001 11.3565 2.1596 6506.0179 1232.3622 0.0084 0.0859
45 45.1334 0.2964 2.7983 8.5826 2.4817 7455.7276 2156.1232 0.0115 0.3177

40 40.7862 1.9655 2.6041 13.1836 2.6769 3510.5703 718.1567 0.0313 0.2412


EvBSFO 2 35 35.2180 0.6229 1.6173 3.5737 1.5824 2033.8690 900.5134 0.0049 0.0790
45 44.6495 0.7789 2.9116 10.2864 2.7368 8933.1107 2377.5602 0.0185 0.3211

40 40.6953 1.7383 2.6076 8.0607 2.3407 2168.3182 629.7395 0.0068 0.2770


3 35 36.1185 3.1958 1.9987 6.5810 2.0252 3745.3751 1152.6037 0.0019 0.1186
45 45.2061 0.4579 2.9932 9.5270 2.5867 8281.9808 2247.8926 0.0041 0.3669

40 40.1810 0.4526 2.9631 9.9783 2.6267 2682.0956 706.2758 0.0055 0.2600


1 35 35.5750 1.6428 2.2129 6.4811 2.0380 3688.5700 1159.6215 0.0011 0.0812
45 45.0742 0.1648 3.6627 14.4187 3.1708 12531.5196 2755.6159 0.0051 0.3567

40 40.5332 1.3330 3.1406 11.6750 2.7826 3140.8311 748.7274 0.0040 0.1897


EvPSO 2 35 36.2527 3.5792 2.4217 9.5697 2.4543 5444.3794 1396.2091 0.0009 0.0805
45 44.9534 0.1035 3.8291 16.1546 3.3818 14039.5530 2938.7842 0.0055 0.2747

40 40.2732 0.6830 2.7663 9.2529 2.5043 2490.0931 673.7733 0.0052 0.1860


3 35 36.0127 2.8936 1.9969 6.3135 2.0056 3590.9647 1140.8787 0.0014 0.0633
45 44.8633 0.3037 3.5286 13.7149 3.1434 11918.5595 2731.5087 0.0053 0.2834

Tabla A.3: Desempeno del Controlador Indirecto Adaptativo con volumen de control infinito y referencia variable

IAC r yf ER MSE MAE MT SE MTAE CAS CAA


40 40.3703 0.9257 1.6204 3.6544 1.5071 987.4776 405.9413 0.0160 0.1103
1 35 35.1321 0.3774 1.0467 1.6920 1.0129 963.8133 576.6660 0.0012 0.0170
45 45.0028 0.0061 1.6519 3.4717 1.4935 3016.6175 1297.7280 0.0034 0.1131

40 43.2128 8.0321 2.3902 27.8099 3.7784 7461.5703 1012.4391 0.0266 0.1430


EvBSFO 2 35 36.1591 3.3116 1.2970 10.1893 1.8764 5849.5577 1073.0727 0.0026 0.0207
45 45.0664 0.1476 1.7386 4.0429 1.6025 3512.6855 1392.5642 0.0079 0.1171

40 41.4779 3.6947 1.9703 8.4672 2.1755 2289.4383 586.9789 0.0065 0.1370


3 35 36.3849 3.9569 1.5413 5.4175 1.8013 3077.2437 1023.7550 0.0008 0.0376
45 45.6569 1.4597 2.0418 5.5890 1.8553 4854.9966 1611.9464 0.0034 0.1404

40 40.3449 0.8623 1.8365 4.5815 1.6902 1232.7005 454.6812 0.0020 0.0794


1 35 35.6083 1.7380 1.4503 3.3202 1.4282 1890.0506 812.8767 0.0002 0.0179
45 45.3656 0.8125 2.2206 6.2399 1.9761 5422.7156 1717.3900 0.0020 0.1103

40 40.2132 0.5330 1.8670 4.9423 1.7453 1329.0434 469.3108 0.0014 0.0577


EvPSO 2 35 35.5928 1.6936 1.5074 3.8079 1.5304 2167.5760 870.8726 0.0002 0.0205
45 45.4316 0.9592 2.2954 6.8309 2.0476 5936.6443 1779.4198 0.0025 0.0955

40 43.4816 8.7039 2.4348 53.3746 4.5057 14361.7487 1212.1676 0.0007 0.0960


3 35 38.5614 10.1755 2.0416 46.9223 4.1952 26697.8224 2386.9984 0.0001 0.0308
45 48.5807 7.9572 2.8900 64.3898 4.9990 55963.5090 4344.2765 0.0013 0.1351

Tabla A.4: Desempeno del Controlador Indirecto Adaptativo con volumen de control aislado y referencia variable

78
Bibliografa

[Abbass01] H. A. Abbass & J. Teo. A True Annealing Approach to the Marriage


in Honey-Bees Optimization Algorithm. En The Inaugural workshop on
Artificial Life (AL01). 2001. 1.1

[Alfonso07a] W. Alfonso. Regulacion de Temperatura en la plataforma UVPTM01


basada en agentes cooperativos para la asignacion dinamica de
recursos. Inf. tec., Universidad del Valle, 2007. 1.3.3, 1.3.5, 4.1, 4.2

[Alfonso07b] W. Alfonso, M. Munoz, J. Lopez & E. Caicedo. Optimizacion de


Funciones Inspirada en el Comportamiento de Busqueda de Nectar
en Abejas. En Congreso Internacional de Inteligenicia Computacional
(CIIC2007). 2007. 1.3.5

[Baran03] B. Baran & A. Hermosilla. Comparacion de un Sistema de Colonias


de Hormigas y una Estrategia Evolutiva para el Problema del Ruteo de
Vehculos con Ventanas de Tiempo en un Contexto Multiobjetivo. En IX
Jornadas Iberoamericanbas de Informatica. 2003. 1.2

[Bartz-Beielstein04] T. Bartz-Beielstein, K. Parsopoulos & M. Vrahatis. Analysis


of Particle Swarm Optimization Using Computational Statistics.
En International Conference of Numerical Analysis and Applied
Mathematics (ICNAAM), pags. 3437. 2004. 1.3.1

[Beattie98] P. Beattie & J. Bishop. Self-Localisation in the Senario Autonomous


Wheelchair. Journal of Intelligent and Robotic Systems, 22:255267,
1998. 1.3.4

79
BIBLIOGRAFIA

[Beni88] G. Beni. The concept of cellular robotic systems. En 3rd IEEE


International Symposium on Intelligent Control, pags. 5762. 1988. 1.3

[Beyer02] H. G. Beyer & H. P. Schwefel. Evolution strategies: A comprehensive


introduction. Natural Computing, 1(1):352, 2002. 1.2

[Bilchev95] G. Bilchev & I. Parmee. The ant colony metaphor for searching
continuous design spaces. En T. Fogarty, ed., Evolutionary Computing,
Selected Papers AISB Workshop, tomo 993 de Lecture Notes in
Computer Science, pags. 2539. Springer, 1995. 1.3.2

[Bishop89a] J. Bishop. Anarchic Techniques for Pattern Classification. Tesis


Doctoral, University of Reading, 1989. 1.3.4, 1.3.4

[Bishop89b] J. Bishop. Stochastic Searching Networks. En First IEE Conference


on Artifical Neural Networks, pags. 329331. 1989. 1.3.4

[Bishop92] J. Bishop & P. Torr. The Stochastic Search Network. En R. Linggard,


D. Myers & C.Nightingale, eds., Neural Networks for Images, Speech
and Natural Language, pags. 370387. Chapman & Hall, 1992. 1.3.4,
1.3.4

[Bishop99] J. Bishop & S. Nasuto. Communicating Neurons an Alternative


Connectionism. En Weightless Neural Networks Workshop. 1999. 1.3.4

[Bremermann74] H. Bremermann. Chemotaxis and optimization. Journal of the Franklin


Institute, 297(5):397404, 1974. 1.3.3

[Bullnheimer97] B. Bullnheimer, R. F. Hartl & C. Strauss. A new rank-based version of


the ant system: a computational study. Inf. Tec. POM-03/97, Institute of
Management Science, University of Vienna, 1997. 1.3.2

[Clerc99] M. Clerc. The swarm and the queen: towards a deterministic


and adaptiveparticle swarm optimization. En 1999 Congress on
Evolutionary Computation (CEC 99). 1999. 1.3.1, 2.2

[Clerc02] M. Clerc & J. Kennedy. The Particle SwarmExplosion, Stability, and


Convergence in a Multidimensional Complex Space. IEEE Transactions
on Evolutionary Computation, 6(1):5873, 2002. 1.3.1

[Colorni91] A. Colorni, M. Dorigo & V. Maniezzo. Distributed Optimization by


Ant Colonies. En Proceedings of ECAL91 - European Conference on
Artificial Life, pags. 134142. Elsevier Publishing, 1991. 1.3.2

80
BIBLIOGRAFIA

[Colorni92] A. Colorni, M. Dorigo & V. Maniezzo. An investigation of some


properties of an Ant algorithm. En Proceedings of the Parallel Problem
Solving from Nature Conference, pags. 509520. Elsevier Publishing,
1992. 1.3.2

[Cordon97] O. Cordon & F. Herrera. A Three-Stage Evolutionary Process


for Learning Descriptive and Approximate Fuzzy-Logic-Controller
Knowledge Bases From Examples. International Journal of
Approximate Reasoning, 17:369407, 1997. 1.2

[Cordon00] O. Cordon, I. F. de Viana, F. Herrera & L. Moreno. A New ACO


Model Integrating Evolutionary Computation Concepts: The Best-Worst
Ant System. En Proceedings of ANTS 2000 - From Ant Colonies to
Artificial Ants: Third International Workshop on Ant Algorithms, pags.
2229. 2000. 1.3.2

[Das97] I. Das. Multi-Objective Optimization, 1997. URL


http://www-fp.mcs.anl.gov/otc/Guide/OptWeb/multiobj/. 4

[De Meyer03] K. De Meyer, J. Bishop & S. Nasuto. Stochastic Difussion: Using


Recruitment for Search. En Symposium on Evolvability & Interaction.
2003. 1.3.4

[deVries98] H. de Vries & J. C. Biesmeijer. Modelling collective foraging by means


of individual behaviour rules in honey-bees. Behav Ecol Sociobiol,
44:109124, 1998. 1.3.5

[Dorigo91a] M. Dorigo, V. Maniezzo & A. Colorni. Ant System: An Autocatalytic


Optimizing Process. Inf. Tec. 91-016, Politecnico di Milano, Italy, 1991.
1.3.2, 1.3.2

[Dorigo91b] M. Dorigo, V. Maniezzo & A. Colorni. Positive feedback as a search


strategy. Inf. Tec. 91-016, Politecnico di Milano, Italy, 1991. 1.3.2

[Dorigo96a] M. Dorigo & L. M. Gambardella. A study of some properties of ANT-Q.


En H. M. Voigt, W. Ebeling, I. Rechenberg & H. S. Schwefel, eds.,
Proceedings of Fourth International Conference on Parallel Problem
Solving From Nature, pags. 656665. Springer Verlag, Berlin, Germany,
1996. 1.3.2

[Dorigo96b] M. Dorigo, V. Maniezzo & A. Colorni. The Ant System: Optimization by


a colony of cooperating agents. IEEE Transactions on Systems, Man,
and Cybernetics-Part B, 26(1):113, 1996. 1.3.2

81
BIBLIOGRAFIA

[Dorigo97] M. Dorigo & L. M. Gambardella. Ant Colony System: A Cooperative


Learning Approach to the Traveling Salesman Problem. IEEE
Transactions on Evolutionary Computation, 1(1):5366, 1997. 1.3.2

[Easter Selvan03] S. Easter Selvan, S. Subramanian & S. Theban Solomon. Novel


Technique for PID Tuning by Particle Swarm Optimization. En Seventh
Annual Swarm Users/Researchers Conference (SwarmFest 2003).
2003. 1.3.1

[Eberhart95] R. Eberhart & J. Kennedy. A New Optimizer Using Particle Swarm


Theory. En Sixth International Symposium on Micro Machine and
Human Science, pags. 3943. 1995. 1.3.1

[Eiben99] E. Eiben, R. Hinterding & Z. Michalewicz. Parameter Control


in Evolutionary Algorithms. IEEE Transactions on Evolutionary
Computation, 3(2):124141, 1999. 2.1

[El-Awady03] K. El-Awady, C. D. Schaper & T. Kailath. Temperature cycling and


control system for photosensitive materials processing. Journal of
Vacuum Science & Technology B: Microelectronics and Nanometer
Structures, 21(4):14591465, 2003. 4.1

[El-Gallad01] A. I. El-Gallad, M. El-Hawary, A. A. Sallam & A. Kalas.


Swarm-Intelligently Trained Neural Network for Power Transformer
Protection. En Canadian Conference on Electrical and Computer
Engineering, pags. 265269. 2001. 1.3.1

[Esmin02] A. A. A. Esmin, A. R. Aoki & G. Lambert-Torres. Particle Swarm


Optimization For Fuzzy Membership Functions Optimization. En
Proceedings of the IEEE International Conference on Systems, Man
and Cybernetics, pags. 108113. 2002. 1.3.1

[Franzen98] O. Franzen, H. Blume & H. Schroder. FIR-filter design with spatial


and frequency design constraints using evolution strategies. Signal
Processing, 68(3):295306, 1998. 1.2

[Gambardella95] L. M. Gambardella & M. Dorigo. Ant-Q: A Reinforcement Learning


approach to the traveling salesman problem. En Proceedings of Twelfth
International Conference on Machine Learning, pags. 252260. Morgan
Kaufmann, 1995. 1.3.2

[Gazi03] V. Gazi & K. M. Passino. Stability Analysis of Swarms. IEEE


Transactions on Automatic Control, 48(4):692697, 2003. 1.3.3

82
BIBLIOGRAFIA

[Gazi04] V. Gazi & K. M. Passino. Stability Analysis of Social Foraging


Swarms. IEEE Transactions of Systems, Man and Cybernetics - Part
B, 34(1):539557, 2004. 1.3.3

[Grech-Cini95] H. Grech-Cini. Locating Facial Features. Tesis Doctoral, University of


Reading, 1995. 1.3.4

[Griffin03] I. Griffin. On-line PID Controller Tuning using Genetic Algorithms.


Proyecto Fin de Carrera, Dublin City University, 2003. 3.2

[Grosan05] C. Grosan, A. Abraham, S. Y. Han & A. Gelbukh. Hybrid Particle


Swarm Evolutionary Algorithm for Search and Optimization. En 4th
Mexican International Conference on Artificial Intelligence (MICAI05),
Lecture Notes in Computer Science, pags. 623632. 2005. 1.3.1

[Heegaard04] P. E. Heegaard, O. Wittner, V. F. Incola & B. Helvik. Distributed


Asynchronous Algorithm for Cross-Entropy-Based Combinatorial
Optimization. En International Workshop on Rare Event Simulation &
Combinatorial Optimization (RESIM 2004). 2004. 1.3.2

[Herrero02] J. M. Herrero, X. Blasco, M. Martnez & J. V. Salcedo. Optimal PID


Tuning With Genetic Algorithms for Non Linear Process Models. En
IFAC 15th Triennial World Congress. 2002. 3.2

[Herrero03] J. G. Herrero, J. A. B. Portas, A. B. de Jesus, J. M. M.


Lopez, G. de Miguel Vela & J. R. C. Corredera. Application of
Evolution Strategies to the Design of Tracking Filters with a Large
Number of Specifications. Journal on Applied Signal Processing,
2003(8):766779, 2003. 1.2

[Hertz00] A. Hertz & D. Kobler. A framework for the description of evolutionary


algorithms. European Journal of Operational Research, 126(1):112,
2000. 1.1

[Hinton81] G. Hinton. A Parallel Computation that Assigns Canonical


ObjectBased Frames of Reference. En 7th International Joint
Conference on Artificial Intelligence. 1981. 1.3.4

[Hoffmann00] F. Hoffmann. Soft computing techniques for the design of mobile robot
behaviors. Information Sciences, 122(24):241258, 2000. 1.2

[Homberger05] J. Homberger & H. Gehring. A two-phase hybrid metaheuristic for


the vehicle routing problem with time windows. European Journal of
Operational Research, 162(1):220238, 2005. 1.2

83
BIBLIOGRAFIA

[Ismail99] A. Ismail & A. P. Engelbrecht. Training Product Units in Feedforward


Neural Networks Using Particle Swarm Optimization. En Proceedings
of the International Conference on Artificial Intelligence, pags. 3640.
1999. 1.3.1

[Jin99] Y. Jin & W. von Seelen. Evaluating flexible fuzzy controllers via
evolution strategies. Fuzzy Sets and Systems, 108:243252, 1999. 1.2

[Karaboga05] D. Karaboga. An idea based on Honey Bee Swarm for Numerical


Optimization. Inf. Tec. TR06, Erciyes University, 2005. 1.3.5

[Kennedy95] J. Kennedy & R. Eberhart. Particle Swarm Optimization. En


Proceedings of IEEE International Conference on Neural Networks,
pags. 19421498. 1995. 1.3.1

[Kennedy97] J. Kennedy & R. Eberhart. A Discrete Binary Version of the Particle


Swarm Algorithm. En Proceedings of the World Multiconference on
Systemics,Cybernetics and Informatics, pags. 41044109. 1997. 1.3.1

[Kim05] D. H. Kim & J. H. Cho. Adaptive Tuning of PID Controller for


Multivariable System Using Bacterial Foraging Based Optimization. En
Advances in Web Intelligence, tomo 3528 de Lecture Notes in Computer
Science, pags. 231235. Springer, 2005. 1.3.3

[Kim06] M. Y. Kim & C. Lee. An experimental study on the optimization of


controller gains for an electro-hydraulic servo system using evolution
strategies. Control Engineering Practice, 14:137147, 2006. 1.2

[Kim07] D. H. Kim, A. Abraham & J. H. Cho. A hybrid genetic algorithm


and bacterial foraging approach for global optimization. Information
Sciences, 177:39183937, 2007. 1.3.3

[Krohling02] R. A. Krohling, L. d.S. Coelho & Y. Shi. Cooperative Particle Swarm


Optimization for Robust Control System Design. En Proceedings
of the 7th Online World Conference on Soft Computing in Industrial
Applications. 2002. 1.3.1

[Kuo96] B. Kuo. Sistemas de Control Automatico. Prentince Hall


Iberoamericana, 1996. 3.2

[Leiviska06] K. Leiviska & I. Joensuu. Chemotaxis for Controller Tuning. En 2nd


Annual Symposium of the Nature-inspired Smart Information Systems
(NiSIS 2006). 2006. 1.3.3

84
BIBLIOGRAFIA

[Leontitsis06] A. Leontitsis, D. Kontogiorgos & J. Pagge. Repel the swarm to the


optimum! Applied Mathematics and Computation, 173:265272, 2006.
1.3.1

[Liu02] Y. Liu & K. M. Passino. Biomimicry of Social Foraging Bacteria for


Distributed Optimization: Models, Principles and Emergent Behaviors.
Journal of Optimization Theory and Applications, 115(3):603628,
2002. 1.3, 1.3.3

[Liu05] H. Liu & A. Abraham. Fuzzy Adaptive Turbulent Particle Swarm


Optimization. En Fifth International Conference on Hybrid Intelligent
Systems, pags. 69. 2005. 1.3.1

[Lucic03] P. Lucic & D. Teodorovic. Computing with Bees: Attacking Complex


Transportation Engineering Problems. International Journal on Artificial
Intelligence Tools, 12(3):375394, 2003. 1.3.5

[Lvbjerg01] M. Lvbjerg & T. Kink. Hybrid Particle Swarm Optimiser with Breeding
and Subpopulations. En Genetic and Evolutionary Computation
Conference (GECCO). 2001. 1.3.1

[Lvbjerg02] M. Lvbjerg & T. Kink. Extending Particle Swarm Optimizers with


Self-Organized Criticality. En Proceedings of the IEEE Congress on
Evolutionary Computation (CEC 2002). 2002. 1.3.1

[Mester07] D. Mester, O. Braysy & W. Dullaert. A multi-parametric evolution


strategies algorithm for vehicle routing problems. Expert Systems with
Applications, 32(2):508517, 2007. 1.2

[Meuleau00] N. Meuleau & M. Dorigo. Ant Colony Optimization and Stochastic


Gradient Descent. Inf. Tec. TR/IRIDIA/2000-36, IRIDIA, Universite
Libre de Bruxelles, Belgium, 2000. 1.3.2

[Miranda02a] V. Miranda & N. Fonseca. EPSO evolutionary particle swarm


optimization, a new algorithm with applications in power systems. En
Asia Pacific Transmission and Distribution Conference and Exhibition,
tomo 2, pags. 745750. 2002. 1.3.1, 2.1

[Miranda02b] V. Miranda & N. Fonseca. EPSO - best-of-two-worlds meta-heuristic


applied to power system problems. En 2002 Congress on Evolutionary
Computation CEC 02., tomo 2, pags. 10801085. 2002. 1.3.1, 5.3

[Muller02] S. D. Muller, J. Marchetto, S. Airaghi & P. Koumoutsakos.


Optimization Based on Bacterial Chemotaxis. IEEE Transactions on
Evolutionary Computation, 6(1):1629, 2002. 1.3.3

85
BIBLIOGRAFIA

[Monson04] C. K. Monson & K. D. Seppi. The Kalman Swarm: A New Approach to


Particle Motion in Swarm Optimization. En Proceedings of the Genetic
and Evolutionary Computation Conference 2004 - GECCO 2004, pags.
140150. 2004. 1.3.1

[Munoz05a] M. A. Munoz. Asignacion dinamica de recursos con tecnicas bio


inspiradas para un sistema de control de temperatura MIMO. Inf. tec.,
Universidad del Valle, 2005. 4.1, 4.1

[Munoz05b] M. A. Munoz, J. A. Lopez & E. F. Caicedo. Implementation


of a Distributed Control Experimentation Platform. En IEEE
2005 Conference on Industrial Electronics and Control Applications
(ICIECA2005). 2005. ISBN 0780394194. 4.1

[Munoz08] M. Munoz, J. Lopez & E. Caicedo. An Artificial Bee Hive for Continuous
Optimization, 2008. Aceptado en International Journal of Intelligent
Systems. 1.3.5, 2.2

[Myatt04] D. Myatt, J. Bishop & S. Nasuto. Minimum Stable Convergence


Criteria for Stochastic Diffusion Search. Electronics Letters,
40(2):112113, 2004. 1.3.4

[Nasuto98] S. Nasuto, J. Bishop & S. Lauria. Time Complexity of Stochastic


Diffusion Search. En Neural Computation 98. 1998. 1.3.4

[Nasuto99a] S. Nasuto. Resource Allocation Analysis of the Stochastic Diffusion


Search. Tesis Doctoral, University of Reading, 1999. 1.3.4

[Nasuto99b] S. Nasuto & J. Bishop. Convergence Analysis of Stochastic Diffusion


Search. Journal of Parallel Algorithms and Applications, 14(2):89107,
1999. 1.3.4

[Nunez de Castro07] L. Nunez de Castro. Fundamentals of natural computing: an overview.


Physics of Life Reviews, 4:136, 2007. 1.4

[Omran05] M. G. H. Omran, A. P. Engelbrecht & A. Salman. Dynamic Clustering


using Particle Swarm Optimization with Application in Unsupervised
Image Classification. Transactions on Engineering, Computing and
Technology, 9:199204, 2005. 1.3.1

[Ozcan99] E. Ozcan & C. K. Mohan. Particle Swarm Optimization: Surfing


the Waves. En Proceedings of the IEEE Congress on Evolutionary
Computation - CEC 1999. 1999. 1.3.1, 1.3.1

86
BIBLIOGRAFIA

[Passino00] K. M. Passino. Distributed Optimization and Control Using Only a Germ


of Intelligence. En 2000 IEEE International Symposium on Intelligent
Control, pags. 513. 2000. 1.3.3

[Passino02] K. M. Passino. Biomimicry of Bacterial Foraging for distributed


optimization and control. IEEE Control Systems Magazine,
22(3):5267, 2002. 1.3, 1.3.3, 1.3.3

[Pham06a] D. Pham, A. Ghanbarzadeh, E. Koc, S. Otri, S. Rahim & M. Zaidi.


The Bees Algorithm A Novel Tool for Complex Optimisation Problems.
En Innovative Production Machines and Systems Virtual Conference.
2006. 1.3.5

[Pham06b] D. Pham, E. Koc, A. Ghanbarzadeh & S. Otri. Optimisation of the


Weights of MultiLayered Perceptrons Using the Bees Algorithm. En 5th
International Symposium on Intelligent Manufacturing Systems. 2006.
1.3.5

[Pham07a] D. Pham, A. Afify & E. Koc. Manufacturing cell formation using the
Bees Algorithm. En Innovative Production Machines and Systems
Virtual Conference. 2007. 1.3.5

[Pham07b] D. Pham, A. H. Darwish, E. Eldukhr & S. Otri. Using the Bees


Algorithm to tune a fuzzy logic controller for a robot gymnast. En
Innovative Production Machines and Systems Virtual Conference. 2007.
1.3.5

[Pham07c] D. Pham & A. Ghanbarzadeha. MultiObjective Optimisation using


the Bees Algorithm. En Innovative Production Machines and Systems
Virtual Conference. 2007. 1.3.5

[Pham07d] D. Pham, Z. Muhamad, M. Mahmuddin, A. Ghanbarzadeh, E. Koc &


S. Otri. Using the Bees Algorithm to Optimise a Support Vector Machine
for Wood Defect Classification. En Innovative Production Machines and
Systems Virtual Conference. 2007. 1.3.5

[Pohlheim99] H. Pohlheim & A. Heiner. Optimal Control of Greenhouse Climate


using Real-World Weather Data and Evolutionary Algorithms. En
Proceedings of the Genetic and Evolutionary Computation Conference
- GECCO 1999, pags. 16721677. 1999. 1.2

[Poli05] R. Poli, W. B. Langdon & O. Holland. Extending Particle Swarm


Optimization via Genetic Programming. En 8th European Conference
on Genetic Programming, pags. 291300. 2005. 1.3.1

87
BIBLIOGRAFIA

[Quijano02] N. Quijano. Experiments and technologies for decentralized


temperature control. Proyecto Fin de Carrera, The Ohio State University,
2002. 4.1

[Rechenberg73] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme


nach Prinzipien der biologischen Evolution. FrommannHolzboog,
1973. 2.1

[Rechenberg08] I. Rechenberg. Evolution Strategies, 2008. URL


http://www.bionik.tu-berlin.de/intseit2/xs2evost.html. 1.2

[Reynolds99] M. Reynolds & P. Meckl. Benchmarking Optimal Control Strategies


for Flexible Systems. En IEEE International Conference on Control
Applications, pags. 707712. 1999. 3, 3.1

[Rubinstein01] R. Rubinstein. Combinatorial Optimization, Cross-Entropy, Ants


and Rare Events. En S. Uryasev & P. M. Pardalos, eds.,
Stochastic Optimization: Algorithms and Applications. Kluwer Academic
Publishers, 2001. 1.3.2

[Rumelhart86] D. Rumelhart & J. McClelland. Parallel Distributed Processing Vol. 1,


pags. 113118. MIT Press, 1986. 1.3.4

[Russell96] S. Russell & P. Norvig. Inteligencia Artificial: Un enfoque moderno.


Prentince Hall, 1996. 1

[Salerno97] J. Salerno. Using the Particle Swarm Optimization Technique to train


a Recurrent Neural Model. En IEEE International Conference on Tools
with Artificial Intelligence, pags. 4549. 1997. 1.3.1

[Salomon97] R. Salomon. The evolution of different neuronal control structures for


autonomous agents. Robotics and Autonomous Systems, 22:199213,
1997. 1.2

[Sastry89] S. Sastry & M. Bodson. Adaptive Control: Stability, Convergence and


Robustness. Prentice-Hall, 1989. 4.2

[Schaper99] C. D. Schaper, K. A. El-Awady & A. E. Tay. Spatially programmable


temperature control and measurement for chemically amplified
photoresist processing. En A. J. Toprac & K. Dang, eds., Procedures
SPIE Process, Equipment and Materials Control in Integrated Circuit
Manufacturing V, tomo 3882, pags. 7479. 1999. 4.1

88
BIBLIOGRAFIA

[Shi98] Y. Shi & R. C. Eberhart. Parameter Selection in Particle Swarm


Optimization. En Evolutionary Programming VII: Proceedings of
the Seventh Annual Conference on Evolutionary Programming, pags.
591600. 1998. 1.3.1, 2.1.2, 2.2

[Stutzle97] T. Stutzle & H. Hoos. The MAXMIN ant system and local search for
the traveling salesman problem. En T. Baeck, Z. Michalewicz & X. Yao,
eds., IEEE International Conference on Evolutionary Computation and
Evolutionary Programming Conference (IEEEICECEPS97), pags.
309314. IEEE Press, 1997. 1.3.2

[Teodorovic05] D. Teodorovic & M. DellOrco. Bee Colony Optimization A


Cooperative Learning Approach to Complex Transportation Problems.
En 10th EWGT Meeting and 16th Mini-EURO Conference. 2005. 1.3.5

[Tillett05] J. Tillett, T. M. Rao, F. Sahin & R. Rao. Darwinian Particle Swarm


Optimization. En 2nd Indian International Conference on Artificial
Intelligence, pags. 14741487. 2005. 1.3.1

[Trelea03] I. Trelea. The particle swarm optimization algorithm: convergence


analysis and parameter selection. Information Processing Letters,
85:317325, 2003. 2.2

[Trochim06] W. Trochim. The T-Test, 2006. URL


http://www.socialresearchmethods.net/kb/stat t.php. 2.2

[Tsutsui04] S. Tsutsui. Ant Colony Optimisation for Continuous Domains with


Aggregation Pheromones Metaphor. En 5th International Conference
on Recent Advances in Soft Computing, pags. 207212. 2004. 1.3.2

[v.E.Conradie02] A. v.E. Conradie, R. Miikkulainen & C. Aldrich. Adaptive Control


utilising Neural Swarming. En Proceedings of the Genetic and
Evolutionary Computation Conference 2002 - GECCO 2002. 2002.
1.3.1

[Voss02] M. S. Voss & X. Feng. ARMA Model Selection Using Particle Swarm
Optimization and AIC Criteria. En IFAC 15th Triennial World Congress.
2002. 1.3.1

[Whitaker02] R. Whitaker & S. Hurley. An agent based approach to site selection for
wireless networks. En ACM Symposium on Applied Computing, pags.
574577. 2002. 1.3.4

89
BIBLIOGRAFIA

[White06] T. White. What is Swarm Intelligence?, 2006. URL


http://www.sce.carleton.ca/netmanage/tony/swarm-presentation/tsld003.htm.
1.1

[Wikipedia08a] Wikipedia. Category: Optimization Algorithms, 2008. URL


http://en.wikipedia.org/wiki/Category:Optimization algorithms. 1.1

[Wikipedia08b] Wikipedia. Computational intelligence, 2008. URL


http://en.wikipedia.org/wiki/Computational Intelligence. 1

[Wikipedia08c] Wikipedia. Evolutionary algorithm, 2008. URL


http://en.wikipedia.org/wiki/Evolutionary algorithms. 1.1

[Wikipedia08d] Wikipedia. Inteligencia Artificial, 2008. URL


http://es.wikipedia.org/wiki/Inteligencia artificial. 1

[Wikipedia08e] Wikipedia. Swarm Intelligence, 2008. URL


http://en.wikipedia.org/wiki/Swarm intelligence. 1.1

[Wong03] T. Wong, P. Bigras & P. Cote. Structured Controller Design with


Evolutionary Optimization. En Artificial Intelligence and Applications
2003, pags. 163168. 2003. 1.2

[Yan-jun03] L. Yan-jun & W. Tie-jun. An Adaptative Ant Colony System Algorithm


for Continuous-Space Optimization Problems. Journal of Zhejiang
University SCIENCE, 4(1):4046, 2003. 1.3.2

[Yisu07] J. Yisu, J. Knowles, L. Hongmei, L. Yizeng & D. B. Kell. The


landscape adaptive particle swarm optimizer. Applied Soft Computing,
8(1):295304, 2007. 1.3.1, 2.2

[Yoshida01] H. Yoshida, K. Kawata, Y. Fukuyama, S. Takayama & Y. Nakanishi.


A Particle Swarm Optimization for Reactive Power and Voltage Control
Considering Voltage Security Assessment. IEEE Transactions on Power
Systems, 15(4):12321239, 2001. 1.3.1

[Yuan06] R. Yuan, C. Guang-yi & Z. Xin-jian. Particle Swarm Optimization based


predictive control of Proton Exchange Membrane Fuel Cell (PEMFC).
Journal of Zhejiang University SCIENCE A, 7(3):458462, 2006. 1.3.1

[Zhang03] W. Zhang & X. Xie. DEPSO: Hybrid Particle Swarm with Differential
Evolution Operator. En IEEE International Conference on Systems, Man
and Cybernetics (SMCC), pags. 38163821. 2003. 1.3.1

90

Potrebbero piacerti anche