Sei sulla pagina 1di 5

Redes Neuronales

Las Redes Neuronales son un campo muy importante dentro


de la Inteligencia Artificial. Inspirndose en el comportamiento
conocido del cerebro humano (principalmente el referido a las
neuronas y sus conexiones), trata de crear modelos artificiales
que solucionen problemas difciles de resolver mediante tcnicas
algortmicas convencionales.

UN POCO DE HISTORIA
Desde la dcada de los 40, en la que naci y comenz a desarrollarse la
informtica, el modelo neuronal la ha acompaado. De hecho, la aparicin de los
computadores digitales y el desarrollo de las teoras modernas acerca del aprendizaje y
del procesamiento neuronal se produjeron aproximadamente al mismo tiempo, a finales
de los aos cuarenta.
Desde entonces hasta nuestros das, la investigacin neurofisiolgica y el estudio
de sistemas neuronales artificiales (ANS, Artificial Neural Systems) han ido de la mano.
Sin embargo, los modelos de ANS no se centran en la investigacin neurolgica, si no
que toma conceptos e ideas del campo de las ciencias naturales para aplicarlos a la
resolucin de problemas pertenecientes a otras ramas de las ciencias y la ingeniera.
Podemos decir que la tecnologa ANS incluye modelos inspirados por nuestra
comprensin del cerebro, pero que no tienen por qu ajustarse exactamente a los
modelos derivados de dicho entendimiento.
Los primeros ejemplos de estos sistemas aparecen al final de la dcada de los
cincuenta. La referencia histrica ms corriente es la que alude al trabajo realizado por
Frank Rosenblatt en un dispositivo denominado perceptrn. Hay otros ejemplos, tales
como el desarrollo del Adaline por el profesor Bernard Widrow.
Durante todos estos aos, la tecnologa ANS no siempre ha tenido la misma
consideracin en las ramas de la ingeniera y las ciencias de la computacin, ms
ansiosas de resultados que las ciencias neuronales. A partir de 1969, el pesimismo
debido a las limitadas capacidades del perceptrn hizo languidecer este tipo de
investigacin.
A principios de los 80, por un lado Hopfield y sus conferencias acerca de la
memoria autoasociativa y por otro lado la aparicin del libro Parallel Distributed

Processing (PDP), escrito por Rumelhart y McClelland reactivaron la investigacin en


el campo de las redes neuronales. Hubo grandes avances que propiciaron el uso
comercial en campos tan variados como el diagnstico de enfermedades, la
aproximacin de funciones o el reconocimiento de imgenes.
Hoy en da, la tecnologa ANS no est en su mejor momento, pero a pesar de ello
existen revistas, ciclos de conferencias, etc; que mantienen vas de investigacin
abiertas.

LA NEURONA BIOLGICA
Fue Ramn y Cajal (1888) quin descubri la estructura celular (neurona) del
sistema nervioso. Defendi la teora de que las neuronas se interconectaban entre s de
forma paralela, y no formando un circuito cerrado como el sistema sanguneo.
Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del que
surge un denso rbol de ramificaciones (dendritas) y una fibra tubular (axn) de entre
100 mm y un metro.

De alguna forma, una neurona es un procesador de informacin muy simple:

Canal de entrada: dendritas.

Procesador: soma.

Canal de salida: axn.

Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez su
salida a varios cientos de neuronas.
La conexin entre neuronas se llama sinapsis. No es una conexin fsica, si no
que hay unos 2 mm de separacin. Son conexiones unidireccionales, en la que la
transmisin de la informacin se hace de forma elctrica en el interior de la neurona y
de forma qumica entre neuronas; gracias a unas sustancias especficas llamadas
neurotransmisores.

No todas las neuronas son iguales, existen muchos tipos diferentes segn el
nmero de ramificaciones de sus dendritas, la longitud del axn y otros detalles
estructurales. Sin embargo, como hemos visto, todas ellas operan con los mismos
principios bsicos.

MODELO DE NEURONA ARTIFICIAL


El modelo de Rumelhart y McClelland (1986) define un elemento de proceso
(EP), o neurona artificial, como un dispositivo que a partir de un conjunto de entradas,
xi (i=1...n) o vector x, genera una nica salida y.

Esta neurona artificial consta de los siguientes elementos:

Conjunto de entradas o vector de entradas x, de n componentes

Conjunto de pesos sinpticos wij. Representan la interaccin entre la


neurona presinptica j y la postsinptica i.

Regla de propagacin d(wij,xj(t)): proporciona el potencial postsinptico,


hi(t).

Funcin de activacin ai(t)=f(ai(t-1), hi(t)): proporciona el estado de


activacin de la neurona en funcin del estado anterior y del valor
postsinptico.

Funcin de salida Fi(t): proporciona la salida yi(t), en funcin del estado


de activacin.

Las seales de entrada y salida pueden ser seales binarias (0,1 neuronas de
McCulloch y Pitts), bipolares (-1,1), nmeros enteros o continuos, variables borrosas,
etc.
La regla de propagacin suele ser una suma ponderada del producto escalar del
vector de entrada y el vector de pesos:

Tambin se usa a menudo la distancia eucldea entre ambos vectores:

Existen otro tipo de reglas menos conocidas como la distancia de Voronoi, de


Mahalanobis, etc.
La funcin de activacin no suele tener en cuenta el estado anterior de la neurona,
sino slo el potencial hi(t). Suele ser una funcin determinista y, casi siempre, continua
y montona creciente. Las ms comunes son la funcin signo (+1 si h i(t)>0, -1 en caso
contrario), la funcin semilineal y las funciones sigmoides:

La funcin de salida suele ser la identidad. En algunos casos es un valor umbral (la
neurona no se activa hasta que su estado supera un determinado valor).
Con todo esto, el modelo de neurona queda bastante simplificado:

RED NEURONAL ARTIFICIAL


Una red neuronal artificial (RNA) se puede definir (Hecht Nielssen 93) como un
grafo dirigido con las siguientes restricciones:
1. Los nodos se llaman elementos de proceso (EP).
2. Los enlaces se llaman conexiones y funcionan como caminos
unidireccionales instantneos
3. Cada EP puede tener cualquier nmero de conexiones.
4. Todas las conexiones que salgan de un EP deben tener la misma seal.
5. Los EP pueden tener memoria local.
6. Cada EP posee una funcin de transferencia que, en funcin de las
entradas y la memoria local produce una seal de salida y / o altera la
memoria local.
7. Las entradas a la RNA llegan del mundo exterior, mientras que sus
salidas son conexiones que abandonan la RNA.

Potrebbero piacerti anche