Sei sulla pagina 1di 18

ARQUITECTURA Y FUNCIONES DE CLCULO LOCAL EN EL

CONEXIONISMO CONVENCIONAL

RESUMEN
Para realizar un buen diseo de una red neuronal debemos conocer sus funciones de
clculo y sus mtodos de aprendizaje.

De esta forma segn el planteamiento que se nos presente podremos seleccionar los
aspectos ms importantes de la red, para poder obtener lo que buscamos.

En el siguiente documento analizaremos los diferentes tipos de clculo local que se


usan en las redes neuronales artificiales, as como el mtodo de aprendizaje mas
apropiado segn el problema que se nos plantee.

INTRODUCCION
Comenzaremos viendo las caractersticas y funcionamiento de una red neuronal, para
ver los diferentes modelos de clculo que se utilizan, as como los algoritmos de
aprendizaje ms apropiados segn las caractersticas de la red o los datos que
conocemos.

Dentro de las funciones de clculo local, tendremos los siguientes modelos:

Analgicos estticos (lineales y no lineales).


Analgicos dinmicos.
Lgicos.
Probabilstico.
Inferenciales.

Los algoritmos de aprendizaje que se estudiaran son:

Supervisado.

o Aprendizaje por correccin de error.


o Retropropagacin del gradiente en redes multicapas.
o Aprendizaje por refuerzo.
o Aprendizaje estocstico.

No supervisado.

o Aprendizaje Hebbiano.
Aprendizaje Hebbiano Original.
Aprendizaje de componentes principales.
o Aprendizaje competitivo.

Hibrido.

Pgina 1 de 18
1. - CARACTERISTICAS DE UNA RED NEURONAL
Haciendo uso del concepto matemtico de grafo: una red neuronal es un grafo
(conjunto de nodos con conexiones entre ellos) dirigido, con las siguientes
propiedades:

A cada nodo i se le asocia una variable de estado xi


A cada conexin (i, j) entre dos nodos (i y j) se le asocia un peso wij

A cada nodo i se asocia un umbral i

Para cada nodo i se define una funcin fi que representa el nuevo estado del
nodo, y depende de los pesos de sus conexiones, del umbral y de los estados
de los nodos a l conectados.

Una red es:

Unidireccional si no presenta bucles cerrados de conexiones.

Recurrente si el flujo de informacin puede discurrir hacia atrs, es decir, si


existen bucles o realimentaciones.

Convergente-divergente, si no existe realimentacin (feed-forward) y la


informacin va hacia adelante.

Conectividad total o local

El peso sinptico representa la intensidad de interaccin entre neuronas. A mayor


valor, mayor influencia de la neurona presinptica en la postsinptica. Adems, las
conexiones son direccionales, es decir, slo propagan informacin en un sentido.

Nos referiremos a una conexin mediante la letra w y dos subndices que


indican las neuronas ligadas por la sinapsis. As, wij indica la conexin entre la
neurona postsinptica (i) y la neurona presinptica (j).

Los pesos pueden ser positivos (excitatorios, tienden a activar la neurona


postsinptica), o negativos (inhibitorios, tienden a inhibir la neurona postsinptica)

1.1 - FUNCIN DE PROPAGACIN (REGLA DE PROPAGACIN)

Normalmente ser la suma ponderada de las entradas multiplicadas por los pesos
sinpticos (es una funcin de tipo lineal).

hi(t) = (wij * xj)

Pgina 2 de 18
1.2 - FUNCIN DE ACTIVACIN (FUNCIN DE TRANSFERENCIA)

Proporciona como salida la respuesta que produce la neurona ante el estmulo


generado por las variables de entrada.

ai(t) = fi(hi(t))

La funcin de activacin suele ser creciente montona y continua; las ms comunes


son la funcin identidad, escaln, lineal a tramos, etc.

En general, los algoritmos de aprendizaje requieren que sea derivable (por ello se
utilizarn funciones de tipo sigmoideo, gaussiana, sinusoidal, etc.)

1.3 - FUNCIN DE SALIDA

Proporciona la salida global de la neurona a partir de su estado de activacin. No


se suele utilizar, tomndose como funcin de salida la identidad. Por tanto la salida
ser igual al estado de activacin.

yi(t) = Fi(ai(t)) = ai(t)

2. - MODELOS ANALOGICOS ESTATICOS (LINEALES Y NO LINEALES)

Los modelos estticos estn formados por variables de entrada no lineales, cuyos
clculos no dependen del tiempo.

Las caractersticas bsicos del modelo analgico esttico son:

No dependen del tiempo.

Un conjunto de entradas xj(t) y pesos sinpticos wij.

Una regla de propagacin hi(t) = (wij * xj)

Una funcin de activacin yi(t) = fi(hi(t)) que representa simultneamente la


salida de la neurona y su estado de activacin.

Pgina 3 de 18
Generalmente se aade a los pesos un elemento adicional i i (umbral) que se resta
del potencial postsinptico. i i es el nivel mnimo que debe alcanzar el potencial de
la neurona para que sta se dispare o active.

Podemos suprimir este umbral de activacin definiendo un peso (w0= i i) y una


entrada (x0=-1), y haciendo el sumatorio desde j = 0 y no desde j = 1.

Teniendo en cuenta todas las anteriores consideraciones:

yi(t) = fi((wij * xj) - i i)

Una vez hayamos determinado la forma de la funcin de activacin habremos


definido nuestra neurona estndar por completo.

fi((wij * xj)) corresponde con la parte lineal del clculo, pero podemos aumentar la
posibilidad de operar con variables de entrada xi2 o xi3, es decir podemos operar con
funciones no lineales.

y(x) = fi((wij * xj)+ wij * xi* xj

Podemos tener expresiones polinmica de tercer orden:

y(x) = fi((wij * xj)+ wij * xi* xj* xk

Podemos generalizar la funcin anterior teniendo en cuenta las posibles


combinaciones de entradas para obtener la respuesta que buscamos.

Y(x) = wjj(x)

Donde representa las diferentes funciones de entrada a cada neurona de la red, y w


los pesos de su aprendizaje.

representa cualquier expansin cuadrtica del espacio de entradas (x2 ,xi* xj,)
incluso una funcin lineal .

Podemos concluir que:

Con el codificador no lineal jugamos con las entradas.


Con el aprendizaje calculamos los pesos w de cada neurona.
Con Y(x) = wjj(x), obtenemos la funcin que buscamos para resolver un
problema en cuestin.

3. - MODELOS ANALOGICOS DINAMICOS

Pgina 4 de 18
Dependen del tiempo, es decir el valor de y(t) no solo depende el valor de las
entradas y salidas en un instante de tiempo concreto, sino que se van a tener
en cuenta todos los valores en los diferentes instantes de tiempos anteriores.

La topologa de red dinmica es un esquema de conectividad total.

La salida de una neurona sirve de entrada a ella misma y al resto de neuronas


de la red.

Modelo esttico Modelo dinmico


Son lineales Funcin no lineal
Incluyen conexiones no recurrentes Incluyen conexiones recurrentes
No dependen del tiempo Dependen del tiempo

Cada neurona viene representada por una ecuacin diferencial de primer orden:

tj dyj(t)/dt = -yj(t) + hj

dyj(t)/dt. Representa el cambio de actividad en la neurona.

-yj(t). valor en un instante de tiempo t.

si dyj(t)/dt = 0 la neurona esta en equilibrio no hay ningn estado de excitacin


o inhibicin, y en este caso yj(t) = hj. La neurona esta en reposo.

Si aadimos la matriz de pesos , responsable de la excitacin o inhibicin de la

neurona , tendremos:

tj dyj(t)/dt = -yj(t) + + hj

Hasta aqu el proceso es lineal.

En el momento que introducimos la funcin umbral (Sigmoide) y la realimentacin,


tendremos un proceso dinmico.

En este momento cada neurona depende:

Del valor en un instante de tiempo t. yj(t)


De la matriz de pesos de las neuronas de entrada .

Pgina 5 de 18
De la actividad del resto de neuronas de la red.
La funcin umbral, funcin sigmoideas.

La nueva ecuacin que tendramos, suponiendo todas las neuronas conectadas entre
s, sera:

tj dyj(t)/dt = -yj(t) + G[ + hj + ]

G es la funcin sigmoidea.

4. - MODELOS LOGICOS

Con una estructura de redes neuronales podemos disear una estructura lgica que
podremos utilizar en cualquier proceso industrial.

Una red neuronal de N neuronas es equivalente a un autmata finito de 2n estados.

Jugando con los 1 o 0 en cada neurona podemos conseguir un proceso


automatizado.

Podemos decir:

Las neuronas toman valores de 0 o 1

Sumas y productos son ahora sumas y productos lgicos.

Los pesos W, actan como los coeficientes de los trminos mnimos de una
funcin lgica.

Podemos calcular valores de las neuronas anteriores al instante actual, si


introducimos realimentacin.

La red neuronal es un autmata finito.

El aprendizaje selecciona que Wij toma valores |0,1|

Como en los autmatas finitos, cada neurona representa una variable de


estado.

Si tenemos un autmata de E estados, necesitamos una red neuronal de N


neuronas tala que 2N E.

5. - MODELOS PROBABILISTICOS

Se basa en el estudio de una gran cantidad de elementos de clculo, en este caso


neuronas.

Pgina 6 de 18
Caractersticas:

El funcionamiento global de la red neuronal es ms importante que el proceso


de una de sus neuronas.

Se busca la robustez de la red frente a cualquier perturbacin, problema,

Son seguras ya que son redundantes.

Clculo estable, ya que realiza varias mediciones en el tiempo y obtiene un


trmino medio de todos ello.

Utilizan aprendizaje por refuerzo. Las conexiones son reforzadas segn la


respuesta general de la red.

Existe una seal de error (nica), que representa el rendimiento global de la red (slo
se indica lo bien o lo mal que responde la red, sin aportar informacin acerca de la
salida deseada u objetivo).
Este tipo de red es muy til cuando:

Queremos realizar cambios en el aprendizaje de la red sin modificar su


estructura.

Cuando no sabemos los resultados que esperamos obtener o son incompletos.

En el modelo lgico las neuronas tomaban un valor de 0 o 1, en este caso este


trmino que representa al mnimo de la funcin va a tomar un valor probabilstico.

En el modelo lgico tenemos que Wij(t) toma valores |0,1|.

En el modelo probabilstico tenemos que aij(t) ser:

o 1 con probabilidad pij(t).

o 0 con probabilidad (1 pij(t)).

Pij(t) es la probabilidad de disparo de la neurona en un instante de tiempo t

El aprendizaje consistir en modificar estas probabilidades de disparo de la neurona.

Aumentamos o disminuimos la probabilidad de disparo en funcin de las entradas y el


estado de cada mnimo de la funcin.

6. - MODELOS INFERENCIALES

Pgina 7 de 18
Las reglas inferenciales son aquellas en las que a travs de unas premisas
obtenemos una conclusin.

Una red neuronal inferencial es una red basada en reglas, que tiene las siguientes
caractersticas:

Estructura fija de la red, para poder aplicar las reglas.


Un grafo funcionando en paralelo.
En los nodos tendremos reglas inferenciales en lugar de sumadores o
funciones lgicas.
Los arcos siguen siendo los parmetros (pesos sinpticos).
Aprendizaje supervisado o no supervisado.
Son estructuras hibridas donde combinados la representacin simblica
(reglas) con el conexionismo (forma en la que distribuimos el conocimiento y se
entrena para el aprendizaje).

Pgina 8 de 18
7. - APRENDIZAJE SUPERVISADO Y NO SUPERVISADO EN
RNAS

Se trata de la propiedad ms atractiva de las redes neuronales.

Denominaremos aprendizaje a la capacidad de la red para aprender de su entorno y,


en virtud de ello, mejorar su respuesta. Podemos limitar a tres las modalidades de
aprendizaje de una RNA:

Aprendizaje supervisado.

Aprendizaje No supervisado.

Aprendizaje Hbrido.

8. - APRENDIZAJE SUPERVISADO

Proporcionan a la red un conjunto de patrones, junto con la salida deseada (tambin


llamado objetivo).

Los valores proporcionados a la red sirven como realimentacin (feedback)


para ajustar sus parmetros (pesos, umbrales) hasta que estos minimicen el
error de la red.

La red ajusta sus pesos hasta que su salida se acerca al objetivo (la red tiende
paulatinamente a la salida deseada).

Para lograr este objetivo la red se servir del error cometido en cada
iteracin. De esta forma, la red neuronal es capaz de estimar relaciones
entrada/salida.

Vamos a distinguir entre tres modalidades en funcin de la informacin exterior que


maneja la red:

8.1 APRENDIZAJE POR CORRECION DE ERROR.

Se ajustan los pesos sinpticos segn la diferencia entre la salida deseada (objetivo) y
la salida real de la red. Un ejemplo es el algoritmo backpropagation, que trata de
optimizar el error cometido por la red.

Conocemos los valores de entrada y lo que esperamos a la salida. Tendremos en


cuenta el error cuadrtico medio, para intentar minimizar el error conseguido entre el
resultado real y el esperado.

Pgina 9 de 18
Para el ajuste de los pesos de las neuronas comparamos entre el valor real
obtenido yj(t) y el valor deseado dj(t).

(t) = | dj(t) - yj(t) |

Para minimizar el error se utiliza el error cuadrtico medio

2
E=

Los pesos de las neuronas se van modificando hacia atrs, partiendo de la


capa de salida, hacia todas las neuronas de la capa oculta y de estas a las de
entrada.

Durante el proceso de aprendizaje realizaremos varios ciclos de entrenamiento


hasta conseguir el resultado esperado.

En cada ciclo de entrenamiento el peso W se obtiene a partir del peso del ciclo
anterior.
W(nuevo) = W(antiguo) - .gradwE(W)
Siempre comenzamos el entrenamiento inicializando los pesos de cada una de
las neuronas de la red.

A medida que se entrena la red, las neuronas van variando sus pesos, hasta
conseguir el entrenamiento que proporcione el resultado esperado.

8.2 - RETROPROPAGACION DEL GRADIENTE EN REDES MULTICAPA

El concepto de propagacin hacia atrs consiste en lo siguiente:

1. Calculamos la seal de error (proporcional al error de la salida actual de la


red). Con l calculamos la actualizacin de los pesos de la capa de salida.

2. A continuacin se propagan hacia atrs los errores, calculndose la seal de


error de la capa oculta.

3. Finalmente se calcula la actualizacin de los pesos de la capa oculta.

Para arquitecturas con ms de una capa oculta, el algoritmo puede extenderse sin
ningn tipo de problema siguiendo el mismo esquema.

El procedimiento a seguir es:

Establecer aleatoriamente los pesos y los umbrales iniciales (nmeros


pequeos, positivos y negativos)
Para cada patrn del conjunto de aprendizaje:
o Realizar una fase de ejecucin para obtener la respuesta de la red
ante este patrn

Pgina 10 de 18
o Calcular las seales de error asociadas k y j
o Calcular el incremento parcial de los pesos y umbrales como
consecuencia del patrn con que estemos trabajando
o Calcular el incremento total (para todos los patrones) actual de los
pesos wjk y wij, haciendo lo mismo para los umbrales.
o Actualizar pesos y umbrales.
o Calcular el error actual y repetir (a excepcin del primer paso) si an
no es satisfactorio.

Respecto al momento en que se procede a la actualizacin de los pesos, tenemos


dos posibles opciones:

Se calcula la variacin en los pesos debido a cada patrn. Se acumulan y


entonces se procede a la actualizacin de los pesos (aprendizaje por lotes)
Se actualizan los pesos tras la presentacin de cada patrn (aprendizaje en
serie)

Partiremos del error cuadrtico medio como funcin de coste:

E(wij , j , wjk , k) = (1/2) * [tk g((wjk * yj) k)]2

Se trata de minimizar esta funcin. Tendremos un gradiente respecto de los pesos de


la capa de salida:

wjk = -(E/wjk) = ((k * yj)) (actualizacin de pesos de la capa de salida)


k = [tk g(hk)] * (g(hk) / hk) (seal de error de la capa de salida)
hk = (wjk * yj) k (potencial postsinptico)

Y otro respecto de los pesos de la capa oculta:

wij = -(E/wij) = ((j * xi)) (actualizacin de pesos de la capa oculta)


j = (k * wjk) (f(hj)/hj) (seal de error de la capa oculta)
hj = (wij * xi) j (potencial postsinptico)

La actualizacin de los pesos se obtiene derivando teniendo en cuenta las


dependencias funcionales y aplicando la regla de la cadena.

La actualizacin de los umbrales se hace considerando que el umbral es un


peso sinptico con entrada constante igual a -1.

El aprendizaje en serie suele estimar mejor el gradiente y permite emplear ritmos de


entrenamiento mayores, por lo que suele ser ms rpido.

Hay que tener en cuenta que en este tipo de aprendizaje el orden en la presentacin
de los patrones debe ser aleatorio.

Un inconveniente suele ser su lentitud de convergencia, y otro problema es el del


sobreaprendizaje.

Pgina 11 de 18
8.3 APRENDIZAJE POR REFUERZO.

En el transcurso del aprendizaje no se realimenta a la red mediante la salida deseada


u objetivo, sino que nicamente se indica mediante una seal de refuerzo si la salida
se ajusta a la deseada, y en funcin de ello se proceder a la modificacin de los
pesos.

Un importante inconveniente es el hecho de que si no existe fallo, tampoco hay


refuerzo ni, en consecuencia, ajuste de pesos. Por ello se utiliza una salida continua
que predice la posterior penalizacin, teniendo as una seal de refuerzo disponible
continuamente y mejorando visiblemente el aprendizaje.

Este aprendizaje es adecuado para tareas de control en que apenas se dispone de


informacin del sistema de trabajo.

8.4 APRENDIZAJE ESTOCASTICO.

Consiste en realizar cambios aleatorios en los pesos sinpticos y estudiar su efecto


segn la salida deseada.

9. - APRENDIZAJE NO SUPERVISADO

Se presenta a la red todo un conjunto de patrones o vectores de entrada sin


especificar el objetivo que pretendemos conseguir (salida deseada).

En este caso, la red deber estimar por si sola la salida a travs del algoritmo de
aprendizaje que se est utilizando, de forma que puedan reconocerse regularidades
en el conjunto de entradas, extraer rasgos, agrupar patrones segn su similitud, etc.

No se recibe, en consecuencia, ningn aporte externo para conseguir el ajuste


correcto de los pesos sinpticos, y por esta razn se suele decir que las redes dotadas
de este tipo de aprendizaje tienen la capacidad de autoorganizarse. Se trata de
encontrar las relaciones, caractersticas comunes, etc., que pueden establecerse entre
los patrones de datos presentados en su entrada.

Dentro del aprendizaje no supervisado se distingue entre dos tipos:

9.1 APRENDIZAJE HEBBIANO.

Consiste en el ajuste de los pesos sinpticos segn la relacin entre los valores de
entrada y salida de cada neurona. Existen diferentes tipos:

o Aprendizaje Hebbiano Original. La actualizacin de los pesos se


corresponde con la correlacin entre los valores de entrada y salida de
cada neurona. Si la entrada x y la salida y se comportan de forma
similar, la conexin se refuerza; si no, se penaliza.

Pgina 12 de 18
o Aprendizaje de componentes principales. Permite reducir el tamao
de la red estudiando las variables en juego. Utiliza backpropagation e
intercala capas en que se determinan las componentes principales,
reduciendo progresivamente el nmero de neuronas en las capas
ocultas mediante la eliminacin de aqullas que no afectan
significativamente al rendimiento de la red.

9.1.1 APRENDIZAJE HEBBIANO BASICO Y MODIFICACION DE OJA

La activacin simultnea de dos neuronas aumenta la sinapsis entre ellas.

Si las dos unidades son activas (positivas), se produce un reforzamiento de la


conexin.

Cuando una es activa y la otra pasiva (negativa) se produce un debilitamiento


de la conexin.

Si tenemos las seales x(t) e yj(t) procedentes de dos neuronas, tendremos:

wij = .xi(t).yj(t), donde yj = xi.wji

es la velocidad de aprendizaje y toma valores en el intervalo [0,1].

Este incremento de los pesos wij, hace inestable al sistema ya que produce una
realimentacin positiva entre las neuronas.

Para solucionar este problema tendremos que tener una realimentacin negativa, es
decir inhibicin en la neurona.

Oja propone lo siguiente para esta realimentacin negativa:

Dividir cada nuevo valor de los pesos por la raz cuadrada de la suma de los
cuadrados de todos los nuevos valores.

Cada sinapsis Tiene que conocer el valor de los pesos y de sus incrementos
en todas las otras sinapsis.

wi = .y.x - .y2.wi = Hebb bsico (realimentacin positiva) Correccin de Oja


(realimentacin negativa)

La realimentacin positiva hace tender a infinito el valor del peso.

La realimentacin negativa es local y representa una entrada inhibidora que


estabiliza a la neurona.

Pgina 13 de 18
9.2 APRENDIZAJE COMPETITIVO.

Se crean grupos de patrones de entrada de forma automtica.

El objetivo Es que solo una neurona de salida se active con un grupo de patrones que
tenemos a la entrada.

Se puede decir que las neuronas de salida compiten unas con otras con el fin de
llevar a cabo una tarea dada; es por ello que las neuronas vecinas crean conexiones
de refuerzo e inhibidoras mediante lo que se conoce con el nombre de funcin de
vecindad.

Tras competir, las neuronas ganadoras son las que procedern al ajuste de sus pesos
a fin de incluir a la nueva entrada en el conjunto que representan.

Un ejemplo de modelo que utiliza aprendizaje no supervisado es el de los mapas


autoorganizados.

10. - APRENDIZAJE HBRIDO

Coexisten en la red los dos tipos anteriores de aprendizaje (supervisado y no


supervisado), que tienen lugar en distintas capas de neuronas. Ejemplos de redes que
utilizan este tipo de aprendizaje son las RBF y las de contra-propagacin.

11. - PROCESO GENERAL

Se debe proceder al entrenamiento de la red a travs de distintas topologas y con


diferentes parmetros, midiendo el error de aprendizaje y de generalizacin hasta
ser reducidos al nivel deseado.

Puede darse el caso de que no se consiga obtener unos resultados aceptables; es en


este punto cuando se debern revisar los siguientes aspectos:

Conjuntos de aprendizaje y test.


Eleccin de las variables.
Preprocesado,
Modificar el modelo de red y elegir otro que pueda resultar ms apropiado.

Incluso es posible que la resolucin del problema con redes neuronales artificiales no
sea viable.

En este punto nicamente puede modificarse:

Pgina 14 de 18
Inicializacin de los pesos: es aleatoria, si bien en ocasiones se recurre a
ciertos algoritmos de minimizacin de funciones (de error) para su eleccin.

Ritmo de aprendizaje: representa el tamao de los cambios en los pesos de


las neuronas.

o Ritmo pequeo cambios pequeos en los pesos (problemas:


disminuye la velocidad de convergencia y evita escapar de mnimos
locales)
o Ritmo elevado grandes variaciones en los pesos (problemas: puede
conducir a la inestabilidad de la RNA o a saturar las neuronas)

Por tanto, el ritmo debe adaptarse a las necesidades, empleando el ms


elevado que no produzca oscilaciones en los errores mostrados por la red
neuronal.

Neuronas ocultas: un nmero excesivo provocar que sobren grados de


libertad, el ajuste en el conjunto de aprendizaje sera correcto pero fallara ante
nuevos casos, por ejemplo con el conjunto de test. Un nmero pequeo har
que no obtengamos un error aceptable.

Pgina 15 de 18
CONCLUSIONES

Para el diseo de una red neuronal no solo debemos crear su estructura, que
construiremos en funcin de las entradas y salidas (resultados) que buscamos.

Es importante conocer las funciones de clculo, y aprendizaje apropiado para obtener


un resultado ptimo.

En este documento hemos analizado las funciones de clculo que pueden utilizarse en
redes neuronales y que se pueden ver en la siguiente tabla:

Funciones de clculo

MODELO ESTATICO DINAMICO LOGICO PROBABILISTICO INFERENCIAL


Valor medio de Reglas
Funcin no Equivalente a un
Funcin Son lineales valores en cada inferenciales.
lineal autmata finito.
neurona
Puede usar
Incluyen Redundantes. Modularidad.
Incluyen realimentacin
conexiones Clculo distribuido
Funcionamiento conexiones para ver estados
no en paralelo.
recurrentes anteriores de las
recurrentes
neuronas.
No dependen Dependen del Dependen del Dependen del
Tiempo Depende de reglas
del tiempo tiempo tiempo tiempo
Se puede Se puede Se puede
Estructura red Robusta Fija
modificar modificar modificar
"0" o "1. Los
pesos W, actan
Depende de P(t) Valores segn
como los
probabilidad de reglas
Neurona (wij * xj) (wij * xj) coeficientes de los
disparo de la inferenciales.
trminos mnimos
neurona Red de reglas.
de una funcin
lgica.
Supervisado Supervisado o
Supervisado o
Tipo aprendizaje o No No Supervisado Por refuerzo
No supervisado
supervisado supervisado

Y los mtodos de aprendizaje que nos ayudaran a entrenar la red con los menos ciclos
posibles y con la mayor estabilidad durante el entrenamiento.

En funcin de lo que pretendamos conseguir tendremos dos bloques de aprendizaje:


Supervisado y No supervisado, que podremos utilizar segn los conocimientos que
tengamos de la red a disear.

Tendremos un tercer grupo el aprendizaje hbrido que ser una mezcla de los dos
anteriores.

Pgina 16 de 18
La siguiente tabla muestra una comparativa entre los dos principales grupos de
aprendizaje de una red neuronal:

Mtodos de aprendizaje

SUPERVISADO NO SUPERVISADO
Se conoce la respuesta que No sabemos el resultado final que
buscamos. vamos a obtener.
Entrenamiento controlado por un El entrenamiento depende de los
agente externo. patrones que se dan a la entrada
de la red.
Ajustamos los pesos en funcin Los pesos se van ajustando segn
del error obtenido a la salida. un conjunto de reglas aplicadas a
los patrones de entrada.
Organizados con los patrones de Se auto organizan.
entrada y las respuestas
conocidas.
Mayores tiempos de entrenamiento Menores tiempos de entrenamiento
Capa de neuronas ocultas para Arquitectura de red simple. Una
refuerzo de los clculos. sola capa o Feed-forward

Teniendo en cuenta las funciones de clculo, la estructura de la red y los diferentes


mtodos de aprendizaje, tendremos las herramientas necesarias para proceder a
disear cualquier planteamiento que nos pueda surgir y que se pueda afrontar desde
el punto de vista de redes neuronales artificiales.

REFERENCIAS BIBLIOGRAFICAS

Pgina 17 de 18
Mecanismos subyacentes al aprendizaje supervisado y no supervisado en
RNAS. J. Mira Mira y A.E. Delgado 2007

Funciones de clculo local en redes neuronales., J. Mira Mira y A.E. Delgado


2007

On how the computational paradigm can help us to model and interpret the
neuronal function, J. Mira and E. Delgado,
http://dx.doi.org/10.1007/s11047-006-9008-6

An Introduction to Neural Networks,


http://www.cs.stir.ac.uk/~lss/NNIntro/InvSlides.html

Neural Computing Publications Worldwide,


http://www.ewh.ieee.org/tc/nnc/research/nnpubs.html

Redes neuronales artificiales Wikipedia,


https://es.wikipedia.org/wiki/Red_neuronal_artificial

MARTN DEL BRO, Bonifacio; SANZ MOLINA, Alfredo. Redes Neuronales y


Sistemas Borrosos. RA-MA, 2006.

FREEMAN, James; M. Skapura, David. Redes Neuronales. Algoritmos,


Aplicaciones y Tcnicas de Programacin. Addison-Wesley / Daz de Santos,
1993.

Pgina 18 de 18

Potrebbero piacerti anche