La teora y modelado de resdes neuronales est inspirada en la estructura y funcionamiento
de los sistemas nerviosos, donde la neurona es el elemento fundamental. En general, una neurona consta de un cuerpo celular ms o menos esfrico, de 5 a 10 micras de dimetro, del que salen una rama principal, el axn, y varias ramas ms cortas, llamadas dendritas. Una de las caractersticas de las neuronas es su capacidad de comunicarse. En trminos generales las dendritas y el cuerpo celular reciben seales de entrada; el cuerpo celular las combina e integra y emite seales de salida. El axn transmite dichas seales a los terminales axnicos, que distribuyen informacin o un nuevo conjunto de neuronas, se calcula que en el cerebro humano existen del orden de 1015 conexiones. Las seales que se utilizan son de dos tipos: elctrica y qumica. La seal generada por la neurona y transportada a lo largo del axn es un implso elctrico, mientras que la seal que se transmite entre los terminales axnicos de una neurona y las dendritas de la otra es de origen qumico. Para establecer una similitud directa entre la actividad sinptica y la analoga con las redes neuronales artificiales podemos considerar: Las seales que llegan a la sinapsis son las entradas a la neurona; estas son ponderadas (atenuadas o simplificadas) a travs de un parmetro, denominado peso asociado a la sinapsis correspondiente. Estas seales de entrada pueden excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). El efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona se activa (da salida). Esta es una situacin de todo o nada; cada neurona se activa o no se activa. La facilidad de transmisin de seales se altera mediante la actividad del sistema nervioso. Las sinapsis son suceptibles a la fatiga, deficiencia de oxgeno y la presencia de anestsicos, entre otro. Esta habilidad de ajustar seales es un mecanismo de aprendizaje. Elementos de una Red Neuronal Artificial Las redes neuronales artificiales (RNA) son modelos que intentan reproducir el comportamiento del cerebro. Como tal modelo, realiza una simplificacin, averiguando cules son los elementos relevantes del sistema, bien bien porque la cantidad de informacin de que se dispone es excesiva o bien porque es redundante. Una eleccin adecuada de sus caractersticas, ms una estructura conveniente, es el procedimiento convencional utilizado para construir redes capaces de realizar determinada tarea. 1. Se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente y cuyas salidas se dirigen al mismo destino. 2. Unidad de proceso: La neurona Artificial. Existen tres tipos de unidades en cualquier sistema: entradas, salidas y ocultas. Las unidades de entrada reciben seales desde el entorno; las de salida envan la seal fuera de la red, y las unidades ocultas son aquellas cuyas entradas y salidas se encuentran dentro del sistema. 3. Estado de Activacin. Los estados del sistema en un tiempo t se representan por un vector A(t). Los valores de activacin pueden ser continuos o discretos, limitados o ilimitados. Si son discretos, suelen tomar un conjunto discreto de valores binarios, as un estado activo se indicara con un 1 y un estado pasivo se representara por un cero. En otros modelos se considera un conjunto de estados de activacin, en cuyo valor entre [0,1], o en el intervalo [-1,1], siendo una funcin sigmoidal. 4. Funcin de Salida o de Transferencia. Asociada con cada unidad hay una funcin de salida, que transforma el estado actual de activacin en una seal de salida. Existen cuatro funciones de transferencia tpicas que determinan distintos tipos de neuronas: Funcin Escaln Funcin Lineal y Mixta Sigmoidal Funcin Gaussiana 1. Conexiones entre neuronas. Las conexiones que unen a las neuronas que forman una RNA tiene asociado un peso, que es el que hace que la red adquiera conocimiento. Se considera que el efecto de cada seal es aditivo, de tal forma que la entrada neta que recibe una neurona es la suma delproducto de cada seal individual por el valor de la sinapsis que conecta ambas neuronas y es lo que se conoce como red de propagacin. Se utiliza una matriz W con todos los pesos, Si wji es positivo indica que la relacin entre las neuronas es excitadora, es decir, siempre que la neurona i est activada, la neurona j recibir una seal que tender a activarla. Si wji es negativo, la sinapsis ser inhibidora. En este caso si i est activada, enviar una seal que desactivar a j. Finalmente si wji es 0 se supone que no hay conxin entre ambas 2. Funcin o Regla de Activacin. Se requiere una regla que combine las entradas con el estado actual de la neurona para producir un nuevo estado de activacin. Esta funcin F produce un nuevo estado de activacin en una neurona a partir del estado que exista y la combinacin de las entradas con los pesos de las conexiones. Esa F es denominada funcin de activacin, y las salidas que se obtienen en una neurona para las diferentes formas de F sern: Funcin de Activacin Escaln Funcin de Activacin Identidad Funcin de Activacin Lineal -Mixta
Funcin de Activacin Sigmoidal 1. Regla de Aprendizaje. El aprendizaje puede ser comprendido como la modificacin de comportamiento inducido por la interaccin con el entorno y como resultado de experiencias conduce al establecimiento de nuevos modelos de respuesta a estmulos externos. En el cerebro humano el conocimiento se encuentra en la sinapsis. En el caso de las RNA el conocimiento se encuentra en los pesos de las conexiones entre neuronas. Todo procesode aprendizaje implica cierto nmero de cambios en estas conexiones. En realidad, puede decirse que se aprende modificando los valores de lo pesos de la red.
INTRODUCCION Con las Redes Neuronales se busca la solucin de problemas complejos, no como una secuencia de pasos, sino como la evolucin de unos sistemas de computacin inspirados en el cerebro humano, y dotados por tanto de cierta "inteligencia", los cuales no son sino la combinacin de elementos simples de proceso (neuronas - se dar una visin rpida sobre el funcionamiento de las mismas en los seres vivos-) interconectados, que operando de forma paralela en varios estilos que sern analizados detalladamente, consiguen resolver problemas relacionados con el reconocimiento de formas o patrones, prediccin, codificacin, control y optimizacin entre otras aplicaciones que finalizarn con este documento.
Historia De Redes Neuronales Artificiales 1920 a 1930 Los intentos por imitar el funcionamiento del cerebro han seguido la evolucin del estado de la tecnologa. Por ejemplo, al finalizar el siglo 19 se le compar con la operacin de la bomba hidrulica; durante la dcada de 1920 a 1930 se intento utilizar la teora de la conmutacin telefnica como punto de partida de un sistema de conocimiento similar al del cerebro. 1940 a 1950 Entre 1940 y 1950 los cientficos comenzaron a pensar seriamente en las redes neuronales utilizando como concepto la nocin de que las neuronas del cerebro funcionan como interruptores digitales (on - off) de manera tambin similar al recin desarrollado computador digital. As nace la idea de "revolucin ciberntica" que maneja la analoga entre el cerebro y el computador digital. 1943 Teora de las Redes Neuronales Artificiales Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el funcionamiento del cerebro humano, por medio de una red de clulas conectadas entre s, para experimentar ejecutando operaciones lgicas. Partiendo del menor suceso psquico (estimado por ellos): el impulso todo/nada, generado por una clula nerviosa. El bucle "sentidos - cerebro - msculos", mediante la retroalimentacin produciran una reaccin positiva si los msculos reducen la diferencia entre una condicin percibida por los sentidos y un estado fsico impuesto por el cerebro. Tambin definieron la memoria como un conjunto de ondas que reverberan en un circuito cerrado de neuronas. 1949 Conductividad de la sinpsis en las Redes Neuronales. Seis aos despus de que McCulloch y Pitts mostraran sus Redes Neuronales, el fisilogo Donald O. Hebb (de la McGill University) expuso que estas (las redes neuronales) podan aprender. Su propuesta tenia que ver con la conductividad de la sinpsis, es decir, con las conexiones entre neuronas. Hebb expuso que la repetida activacin de una neurona por otra a travs de una sinpsis determinada, aumenta su conductividad, y la hacia ms propensa a ser activada sucesivamente, induciendo a la formacin de un circuito de neuronas estrechamente conectadas entre s.
En la actualidad
En la actualidad ya existen un serie de neurocomputadores comerciales destinados a la realizacin de redes neuronales. Por otro lado la realizacin de RNA puede llevarse a cabo por medio de uno o varios circuitos integrados especficos, para as poder obtener una estructura que se comporte lo ms similar posible a como lo hara una red neuronal. Otra tecnologa que podra ser apropiada en la implementacin de las redes neuronales es la tecnologa electroptica, con la ventaje de utilizar la luz como medio de transporte de la informacin, permitiendo la transmicin, masiva de datos. Elementos de una Red Neuronal Artificial Las redes neuronales artificiales (RNA) son modelos que intentan reproducir el comportamiento del cerebro. Como tal modelo, realiza una simplificacin, averiguando cules son los elementos relevantes del sistema, bien bien porque la cantidad de informacin de que se dispone es excesiva o bien porque es redundante. Una eleccin adecuada de sus caractersticas, ms una estructura conveniente, es el procedimiento convencional utilizado para construir redes capaces de realizar determinada tarea. 1. Se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente y cuyas salidas se dirigen al mismo destino. 2. Unidad de proceso: La neurona Artificial. Existen tres tipos de unidades en cualquier sistema: entradas, salidas y ocultas. Las unidades de entrada reciben seales desde el entorno; las de salida envan la seal fuera de la red, y las unidades ocultas son aquellas cuyas entradas y salidas se encuentran dentro del sistema. 3. Estado de Activacin. Los estados del sistema en un tiempo t se representan por un vector A(t). Los valores de activacin pueden ser continuos o discretos, limitados o ilimitados. Si son discretos, suelen tomar un conjunto discreto de valores binarios, as un estado activo se indicara con un 1 y un estado pasivo se representara por un cero. En otros modelos se considera un conjunto de estados de activacin, en cuyo valor entre [0,1], o en el intervalo [-1,1], siendo una funcin sigmoidal. 4. Funcin de Salida o de Transferencia. Asociada con cada unidad hay una funcin de salida, que transforma el estado actual de activacin en una seal de salida. Existen cuatro funciones de transferencia tpicas que determinan distintos tipos de neuronas: Funcin Escaln Funcin Lineal y Mixta Sigmoidal Funcin Gaussiana 1. Conexiones entre neuronas. Las conexiones que unen a las neuronas que forman una RNA tiene asociado un peso, que es el que hace que la red adquiera conocimiento. Se considera que el efecto de cada seal es aditivo, de tal forma que la entrada neta que recibe una neurona es la suma delproducto de cada seal individual por el valor de la sinapsis que conecta ambas neuronas y es lo que se conoce como red de propagacin. Se utiliza una matriz W con todos los pesos, Si wji es positivo indica que la relacin entre las neuronas es excitadora, es decir, siempre que la neurona i est activada, la neurona j recibir una seal que tender a activarla. Si wji es negativo, la sinapsis ser inhibidora. En este caso si i est activada, enviar una seal que desactivar a j. Finalmente si wji es 0 se supone que no hay conxin entre ambas 2. Funcin o Regla de Activacin. Se requiere una regla que combine las entradas con el estado actual de la neurona para producir un nuevo estado de activacin. Esta funcin F produce un nuevo estado de activacin en una neurona a partir del estado que exista y la combinacin de las entradas con los pesos de las conexiones. Esa F es denominada funcin de activacin, y las salidas que se obtienen en una neurona para las diferentes formas de F sern: Funcin de Activacin Escaln Funcin de Activacin Identidad Funcin de Activacin Lineal -Mixta
Funcin de Activacin Sigmoidal 1. Regla de Aprendizaje. El aprendizaje puede ser comprendido como la modificacin de comportamiento inducido por la interaccin con el entorno y como resultado de experiencias conduce al establecimiento de nuevos modelos de respuesta a estmulos externos. En el cerebro humano el conocimiento se encuentra en la sinapsis. En el caso de las RNA el conocimiento se encuentra en los pesos de las conexiones entre neuronas. Todo procesode aprendizaje implica cierto nmero de cambios en estas conexiones. En realidad, puede decirse que se aprende modificando los valores de lo pesos de la red. Caractersticas de las Redes Neuronales Existen cuatro aspectos que caracterizan una red neuronal: su topologa, el mecanismo de aprendizaje, tipo de asociacin realizada entre la informacin de entrada y salida, y la forma de representacin de estas informaciones. 1. Redes Monocapa: Se establecen conexiones laterales, cruzadas o autorrecurrentes entre las neuronas que pertenecen a la nica capa que constituye la red. Se utilizan en tareas relacionadas con lo que se conoce como autoasociacin; por ejemplo, para generar informaciones de entrada que se presentan a la red incompletas o distorsionadas. Redes Multicapa: Son aquellas que disponen de conjuntos de neuronas agrupadas en varios niveles o capas. Una forma de distinguir la capa a la que pertenece la neurona, consiste en fijarse en el origen de las seales que recibe a la entrada y el destino de la seal de salida. Segn el tipo de conexin, como se vio previamente, se distinguen las redes feedforward, y las redes feedforward/feedback. 2. Topologa de las Redes Neuronales. La arquitectura de las redes neuronales consiste en la organizacin y disposicin de las neuronas formando capas ms o menos alejadas de la entrada y salida de la red. En este sentido, los parmetros fundamentales de la red son: el nmero de capas, el nmero de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas. 3. Mecanismo de Aprendizaje. El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacin de entrada. Los cambios que se producen durante el proceso de aprendizaje se reducen a la destruccin, modificacin y creacin de conexiones entre las neuronas, la creacin de una nueva conexin implica que el peso de la misma pasa a tener un valor distinto de cero, una conexin se destruye cuando su peso pasa a ser cero. Se puede afirmar que el proceso de aprendizaje ha finalizado (la red ha aprendido) cuando los valores de los pesos permanecen estables (dwij / dt = 0).