Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Redes Neuronales
ndice
Contenido
N de pgina
-ndice
-Introduccin
4
5
5-6
7-8
9
10-11
11-14
14
15
15
16
16
17
18-19
20
21-22
49
2
Introduccin
Los sistemas actuales que buscamos controlar se han vuelto muy complejos, la mayora
de ellos presentan algn grado de no linealidad, y pueden ser variantes e invariantes en
el tiempo, presentan incertidumbres en sus entradas y en su estructura.
Uno de los mtodos que ms inters ha despertado en la teora de control de sistemas no
lineales que pueden resolver los problemas mencionados anteriormente es el control a
travs de la inteligencia artificial, el cul incorpora tcnicas como las redes neuronales
artificiales y los sistemas difusos.
Las redes neuronales artificiales son un tipo especial de estructura matemtica las cules
se basan en el modelo biolgico de las neuronas del cerebro. Una red neuronal tiene la
propiedad de ajustar automticamente sus parmetros mediante una regla llamada
algoritmo de aprendizaje, generalmente este algoritmo se basa en la retro propagacin del
error, as la red puede aproximar una funcin no lineal con una gran exactitud.
En esta investigacin analizaremos el funcionamiento integral de las redes neuronales
artificiales en un sistema de control no lineal basado en el reconocimiento integral de
patrones, donde se analizaran mtodos paso a paso de la configuracin de una red
neuronal, como est conformada su arquitectura interna y cules son las diferentes
aplicaciones que podemos obtener basado en estar redes neuronales artificiales.
Al estar basado en el reconocimiento de patrones (o imagen), se generara el proceso de
la conformacin de datos de entrada a valores vectoriales basado en una matriz de datos
binarios, para que posteriormente sean reconocidos por nuestra red neuronal y se aplique
un debido algoritmo de aprendizaje, para lograr comprender como se realiza el
aprendizaje y retencin de la informacin que adquiere nuestra red.
As finalmente lograr comprender la interpretacin de los datos entregados por nuestra
red neuronal artificial (datos de salida), acompaados de un amplio marco terico, y su
aplicacin prctica.
Una de las caractersticas principales de las neuronas, y que la distinguen del resto de las
clulas del cuerpo humano, es su capacidad de comunicarse entre las propias neuronas.
Existen dos (2) tipos de seales nerviosas, las que pueden ser elctricas o qumicas. La
transmisin qumica se da principalmente en la comunicacin entre neuronas, mientras
que la elctrica se produce dentro de una neurona.
La forma de comunicacin entre las neuronas se inicia en el soma de las neuronas
transmisoras o pre sinpticas, donde se genera un pulso elctrico llamado potencial de
accin. El pulso elctrico se propaga a travs del axn en direccin a las sinapsis. La
informacin se transmite a las neuronas vecinas utilizando un proceso qumico, mediante
la liberacin de neurotransmisores. Estos mismos neurotransmisores se transmiten a
travs de la sinapsis hacia la neurona receptora, y a su vez, esta misma neurona
receptora o post sinptica toma la seal enviada por cientos de neuronas a travs de las
dendritas y la transmite al cuerpo celular. Estas seales pueden ser excitadoras
(positivas) o inhibidoras (negativas).
Soma: es el encargado de integrar la informacin proveniente de las distintas neuronas, y
si la seal resultante supera un determinado umbral (umbral de disparo) el soma emite un
pulso que se transmite a lo largo del axn dando lugar a la transmisin elctrica a lo largo
de la neurona. Al llegar la seal al extremo del axn se liberan neurotransmisores que
permiten transmitir la seal a las neuronas vecinas.
El nmero estimado de neuronas en el cerebro humano es de 10^11 y las interconexiones
entre ellas son del orden de 10^15.
Las redes neuronales artificiales son un modelo simplificado de las redes neuronales
biolgicas, se pueden clasificar dentro del grupo de sistemas inteligentes, entre los que se
encuentran: sistemas adaptables, difusos, genticos y todos aquellos que tratan de
modelar el conocimiento y el aprendizaje.
La calificacin de inteligentes se debe a que los sistemas mencionados anteriormente
tienen la capacidad de adaptarse a su medio aprender de l de forma autnoma. Las
redes neuronales artificiales pueden definirse como un arreglo de elementos bsicos de
procesamiento con capacidad de entrenamiento.
Este entrenamiento consiste en el ajuste de algunos parmetros con el fin de que la red
asimile, con algn grado de precisin, la relacin causa-efecto deseada entre las variables
de entrada y de salida de la red neuronal.
Normalmente la seal de salida NET suele ser procesada por una funcin de activacin
F, la que sirve para producir la seal de salida de la neurona OUT. La funcin F puede ser
una funcin lineal, una funcin umbral o una funcin no lineal que simula con mayor
exactitud las caractersticas de transferencia no lineales de las neuronas biolgicas.
10
Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, o buffer
de entrada, donde se presentan ingresos de datos desde el ambiente a la red, y una capa
buffer de salida que mantiene la respuesta de la red a una entrada, enviando datos fuera
de la neurona artificial. El resto de las capas reciben el nombre de capas ocultas, las que
solo reciben seales de unidades que pertenecen a la red.
11
Figura (1.8) Representacin de las curvas de las funciones de familia escaln de dos (2)
posiciones.
12
13
d) Funcin Lineal:
Esta funcin posee una caracterstica del tipo lineal, la que no posee lmites en su rango.
Los pesos sinpticos definen la fuerza de una conexin sinptica entre dos neuronas, la
neurona pre sinptica y la neurona post sinptica.
Los pesos sinpticos pueden tomar valores positivos, negativos o cero. En caso de una
entrada positiva, un peso positivo acta como excitador, mientras que un peso negativo
acta como inhibidor. En caso de que el peso sea cero, no existe comunicacin entre el
par de neuronas.
Mediante el ajuste de los pesos sinpticos la red es capaz de adaptarse a cualquier
entorno y realizar una determinada tarea.
14
15
16
17
18
Las redes multicapa se forman con un grupo de capas simples en cascada. La salida de
una capa es la entrada de la siguiente capa. Se ha demostrado que las redes multicapa
presentan cualidades y aspectos por encima de las redes de una capa simple.
Estas redes neuronales estn construidas por neuronas organizadas en capas, donde
cada nivel intermedio de la red tiene como entrada a todas a un conjunto de las salidas
de la capa anterior.
19
La figura 1.16 est mostrando las diferentes arquitecturas de las redes dinmicas.
Las figuras (a) y (b) muestran redes con recurrencia local, la primera una recurrencia en
la misma capa y la segunda muestra una recurrencia entre las capas ocultas.
Las figuras (c) y (d) muestran una recurrencia global, donde la retroalimentacin va de la
salida de la red a la entrada y en el segundo caso la retroalimentacin solo llega a la
segunda capa de la red.
20
21
22
23
24
25
La unidad procesadora del Perceptrn realiza la suma ponderada de todas las entradas
de nuestra red, donde el Perceptrn comprueba si la suma de las entradas ponderadas es
mayor o menor que un cierto valor umbral y genera la salida " NET", que est comandada
por las siguientes condiciones.
Si la sumatoria de entradas es > 0 entonces salida NET = 1
Si la sumatoria de entradas es <= 0 entonces salida NET = 0
La salida NET es transmitida a lo largo de la lnea de salida y constituye uno de los
componentes del vector de salida de la red.
26
27
28
29
30
Propagacin hacia Atrs.Una vez que se ha completado la fase de propagacin hacia adelante se inicia la fase de
correccin o fase de propagacin hacia atrs.
Los clculos de las modificaciones de todos los pesos de las conexiones empiezan por la
capa de salida y continua hacia atrs a travs de todas las capas de la red hasta la capa
de entrada. Dentro de los tipos de ajuste de pesos se puede clasificar dos grupos, ajuste
de unidades procesadoras de la capa de salida y ajuste de unidades procesadoras de las
capas ocultas. Por este medio se propaga los errores hacia la capa de entrada, ajustando
los pesos de las capas ocultas de forma que se minimice el error.
Finalmente repetimos desde el paso 5 para cada par de entrenamiento hasta que el error
para todos los conjuntos de entrenamiento sea aceptable y converja en un valor
adecuado.
31
La convergencia es un proceso en el que el valor RMS del error de la red tiende cada vez
ms al valor 0. La convergencia no siempre es fcil de conseguirla porque a veces el
proceso puede requerir un tiempo excesivo o bien porque la red alcanza un mnimo local y
deja de aprender.
32
Podemos concluir que los Datos de Entrada sern recibidas (ledas) por las Neuronas de
entrada, las mismas que sern procesadas por la red neuronal artificial y los resultados
sern entregados a los datos de salida, a travs de las Neuronas de Salida.
Por lo tanto, los datos de entrada estarn en relacin con las neuronas de entrada y los
datos de salida con las neuronas de salida, lo que significa que a una red neuronal de n
cantidad de neuronas en la capa de entrada y m cantidad de neuronas en la capa de
salida le corresponder como datos de entrada un vector X de tamao n [X1, X2, .Xn] y
como datos de salida un vector Y de tamao m [Y1, Y2, . Ym], establecindose entre
ellos una dependencia funcional que la podemos llamar RN, y que la podemos expresar
de la siguiente manera:
[Y1, Y2,. Ym] = RN ([X1, X2, . Xn])
33
34
Por lo tanto, en nuestro caso prctico la dependencia funcional entre los datos de entrada
y salida de la red neuronal es de la siguiente forma:
Por otra parte, la dependencia funcional referida entre los elementos de muestra de
nuestras entradas seria la siguiente:
Figura (2.9) - Relacin entre los Elementos de la Muestra y la Calidad de los Mangos.
Como el caso prctico tiene por objetivo demostrar que una red neuronal artificial puede
ser entrenada para reconocer los mangos de calidad, por cuestiones metodolgicas
solamente explicaremos el proceso en detalle para un solo tipo de mangos, ya que el
proceso ser idntico en los otros casos. Para ello seleccionamos los mangos de tipo
Kent exportables.
35
36
Luego para cada imagen, definiremos una matriz lo suficientemente fina para convertirla
en datos procesables por la red neuronal. Para el caso prctico se utiliza una matriz de
dimensin 50 x 50, con la que procedemos a obtener el borde de la imagen y
representamos dicho borde, usando las celdas de la matriz de 50 x 50, tal como se
observa en la secuencia de las siguientes imgenes:
Ahora generamos los datos reemplazando las celdas vacas con 0s y las sombreadas
con 1s.
Figura (2.12) - Imagen del Borde de un Mango y su Matriz Asociada con valores de 0 y 1.
37
Ahora para generar los datos de entrada a la red neuronal artificial, convertimos la matriz
de datos binarios en un vector lineal X de tamao 2500 (50 x 50).
Como a cada mango le corresponden un vector lineal con 2500 valores binarios, por
cuestiones de espacio, mostraremos solamente 10 valores por cada mango, donde
debemos juntar todos los vectores lineales con informacin binaria, generados por cada
mango, en una tabla nica que debe contener los vectores lineales de todos los mangos
38
Cada neurona de salida de una red neuronal sirve para reconocer un patrn diferente,
como el objetivo de nuestra investigacin es reconocer la calidad morfolgica de los tres
tipos de mangos de exportacin (Kent, Haden y Tommy) entonces debemos tener tres
neuronas en la capa de salida.
39
c. De modo similar para la para cada elemento de M3, la salida ser (0, 0, 1).
Para entrenar una red neuronal artificial se debe hacer uso de un software computacional,
para el caso prctico de seleccin de patrones se utilizara el NEUROTRAINPATTERN.M,
que est desarrollado en MATLAB cuya funcionalidad se especifica en la siguiente figura:
40
Primer entrenamiento:
Ingreso de Parmetros en software.
En el entorno del MATLAB ejecutamos el programa NEUROTRAINPATTERN.M e
ingresamos los parmetros requeridos.
41
42
En el grfico podemos apreciar que la curva descrita nos muestra un proceso inadecuado
de aprendizaje ya que segn los parmetros ingresados se deseaba alcanzar un margen
de error del 20 % en un total mximo de 200 iteraciones. Segn el grfico se han
realizado las 200 iteraciones, alcanzando al final de la curva un margen de error del 60%.
43
Segundo entrenamiento:
Ingreso de Parmetros en software.
En el entorno del MATLAB ejecutamos el programa NEUROTRAINPATTERN.M e
ingresamos los parmetros requeridos.
44
Como podemos apreciar, la figura esta vez nos muestra que hemos alcanzado
aproximadamente el 5% de margen de error en 790 iteraciones (repeticiones), es decir
hemos logrado nuestro objetivo y ahora podemos afirmar que tenemos una red neuronal
artificial bien entrenada para el reconocimiento de la calidad de los mangos exportables.
45
Y3 = 0.507, el primer mango solamente tiene el 30.7% de similitud a los mangos Tommy
exportables, por lo tanto tambin afirmamos que no es un mango Tommy exportable.
Pasaremos de frente al tercer mango cuyo vector de salida es:
[Y1, Y2, Y3] = [0.813, 0.197, 0.225]
Y1 = 0.813, quiere decir que la calidad morfolgica del tercer mango es del 81.3%
respecto a un mango de calidad exportable tipo Kent, por lo tanto podemos afirmar que es
un mango Kent exportable, si se aprecia la figura del tercer mango podemos comprobar
la eficiencia de la red neuronal artificial.
46
En general:
Si Y1 > 0.5, el mango ha sido reconocido como un mango Kent exportable.
Si Y2 > 0.5, el mango ha sido reconocido como un mango Haden exportable.
Si Y3 > 0.5, el mango ha sido reconocido como un mango Tommy exportable.
Podemos concluir que nuestra RNA ha reconocido correctamente los tres mangos, los
dos primeros los ha reconocido como No Exportable y el tercer mango como Kent
Exportable, tal como se esperaba.
47
Por otra parte, los datos procedentes del problema son imprecisos, incoherentes o con
ruido (como el ejemplo visto sobre el reconocimiento de imgenes). Por ltimo, el
problema es de elevada dimensionalidad, es decir, el nmero de variables de entrada es
demasiado grande como para que un modelo convencional aprenda a solucionar el
problema en un tiempo razonable.
Cuando no se dan estas circunstancias puede ser ms aconsejable optar por solucionar el
problema mediante un modelo derivado de la estadstica o la Inteligencia Artificial. Por
tanto, no debemos concebir las redes neuronales como una alternativa, sino ms bien
como un complemento a los modelos convencionales ya establecidos.
Respecto a las limitaciones que presentan las redes neuronales artificiales, una de las
ms importantes consiste en que es difcil comprender la naturaleza de las
representaciones internas generadas por la red para responder ante un problema
determinado. Es decir, no sabemos cmo el sistema interrelaciona las diferentes variables
de entrada con los pesos de las conexiones entre neuronas para elaborar una solucin.
Esta limitacin contrasta con los diferentes modelos estadsticos, los cuales permiten
observar los parmetros o pesos relativos que el modelo otorga a cada una de las
variables que intervienen en el modelo.
48
Conclusin
El uso de las redes neuronales artificiales ha estado presente histricamente para la
aplicacin de diversas problemticas presentadas en diferentes mbitos, y a pesar de no
ser una solucin integral de estas problemticas, presenta diversas ventajas en el uso de
aplicaciones especificas.
De esta manera, para el sistema de control basado en redes neuronales artificiales,
resulta ser efectivo para el reconocimiento de patrones, ya que se logra alcanzar
resultados con mrgenes de error muy pequeos, y por ende gran grado de selectividad
en la clasificacin de elementos.
El diseo de la red neuronal artificial que ha sido capaz de aprender a reconocer los 3
tipos de mangos expuestos en nuestra investigacin, tiene la siguiente configuracin:
2500 neuronas en la capa de entrada (para tomar como dato de entrada de la red, el
borde de la imagen de un mango de diversos tipos), 3 neuronas en la capa de salida (para
que la red neuronal pueda identificar tres tipos diferentes de mangos exportables) y 400
neuronas en la capa oculta (para que pueda realizar un entrenamiento adecuado).
Se recomienda tener el mximo cuidado en elegir la muestra de entrenamiento ya que de
ello depende el xito del entrenamiento de la red neuronal artificial.
49
Bibliografa
Libros y publicaciones:
Libro: An Introduction to Neural Networks. J. Anderson, 1995
Libro: Las Redes Neuronales Artificiales: Fundamentos Tericos y Aplicaciones
Prcticas. R. Flrez, J Fernndez.
Libro: Redes de Neuronas Artificiales: Un enfoque Prctico. Pedro Isasi Viuela,
Ins M. Galvn Len
Imgenes tomadas desde libro: Neural Computing Architectures, MIT Press,
Cambridge, MA, 1989.
50