Sei sulla pagina 1di 12

Introducción

Las Redes de Hopfield simulan una memoria asociativa, es decir, al igual que la mente
humana relaciona acontecimientos con sensaciones, estas redes asociarán patrones con
variaciones de los mismos.

Para comprender más fácilmente la forma en que trabajan las redes de Hopfield para
asociar aquellos patrones, haremos una analogía con la física. Si se tiene una curva
cóncava hacia arriba y se coloca un objeto en la parte más alta, éste objeto tendrá energía
potencial. Al soltarlo y dejarlo resbalar sobre la curva, irá perdiendo energía potencial y
ganando energía cinética, y además perderá energía en forma de calor a causa de la
fricción con el aire y la superficie. Finalmente, después de un tiempo, llegará a un estado
estable (donde ya no se moverá). Éste estado tendrá la energía mínima (puesto que estará
en la parte más baja de la curva [energía potencial mínima] y su energía
cinética será cero).

En las redes de Hopfield se definirá una función de energía que asegure alcanzar el mínimo
mediante algún procedimiento, y se formará la red de tal forma que el estado estable
(donde se alcanza el mínimo) sea exactamente alguno de los patrones que se desea
recuperar. Estos patrones serán llamados “memorias fundamentales”.
INDICE
Memoria Asociativa ...................................................................................................................... 4
Tipos de memorias asociativas ..................................................................................................... 5
Memoria asociativa: .................................................................................................................. 5
Memoria auto asociativa: ......................................................................................................... 6
Memoria hetero asociativa ....................................................................................................... 6
Características de la Red de Hopfield............................................................................................ 6
Topología de la red .................................................................................................................... 6
función de energía .................................................................................................................... 7
funcionamiento ......................................................................................................................... 7
Limitaciones .................................................................................................................................. 8
Capacidad de almacenamiento ................................................................................................. 8
Estados Espurios........................................................................................................................ 9
Eficiencia ................................................................................................................................... 9
Conclusión ................................................................................................................................... 10
Recomendaciones ....................................................................................................................... 11
BIBLIOGRAFIA .............................................................................................................................. 12
Redes de hopfield
La Red de Hopfield es una red recurrente, es decir, existe realimentación entre las neuronas. De
esta forma, al introducir un patrón de entrada, la información se propaga hacia adelante y hacia
atrás, produciéndose una dinámica. En algún momento, la evolución se detendrá en
algún estado estable. En otros casos, es posible que la red no se detenga nunca.

Memoria Asociativa

La memoria asociativa es el almacenamiento y recuperación de información por


asociación con otras informaciones ya que esto es definido de una manera de asociar un
ejemplo
Un dispositivo de almacenamiento de información se llama memoria asociativa si
permite recuperar información a partir de conocimiento parcial de su contenido, sin
saber su localización de almacenamiento. A veces también se le llama memoria de
direccionamiento por contenido
Los computadores tradicionales no usan este direccionamiento; se basan en el
conocimiento exacto de la dirección de memoria en la que se encuentra la información.

Sin embargo, es obvio que el cerebro humano no actúa así. Si queremos recordar el
nombre de una persona, no nos sirve para nada saber que fue el nombre número 3274
que aprendimos. Es más útil saber que su nombre empieza y termina por 'N' y que es un
famoso científico inglés. Con esta información, es casi seguro que recordaremos
exitosamente a "Newton".
Computacionalmente, una memoria asociativa puede contener p patrones binarios,
con N bits de información cada uno. Cuando a la memoria se le presenta un nuevo
patrón x, debe recordar el patrón de los almacenados que más se parezca a x.
Generalmente, el grado de similitud lo da la distancia de Haming.

Tipos de memorias asociativas


Memoria asociativa: Establece una correspondencia F entre X e Y de tal
manera que F(x)=yi, pero si el vector de entrada difiere de uno de los ejemplares
en el vector d, de tal modo que x=xi+d, entonces la salida será yi+d.
Memoria auto asociativa: En una memoria auto asociativa, se igualan los
vectores x e y. Si un x arbitrario está más próximo a x' que, a cualquier otro x, la
correspondencia será f(x)=x' (x'=y').

Memoria hetero asociativa: Las memorias heteroasociativas establecen


correspondencias entre pares de vectores x e y, de forma que, si un x arbitrario
está más próximo a un x' que, a cualquier otro x, la correspondencia será f(x)=y'.
Se hace corresponder cada entrada con el vector y asociado al vector x más
próximo a la entrada.

Características de la Red de Hopfield

Topología de la red

a) Es un Red Recurrente, todas las neuronas están conectadas entre sí,


pero no con ellas mismas (conexión irreflexiva). Es decir, la conexión es
tal que cada neurona recibe señal de todas las demás y emite señal hacia
todas ellas, pero no se auto excita.
b) Los pesos entre neuronas deben ser simétricos y una neurona no puede
estar conectada con ella misma, es decir
wij=wji ij wii=0

Así, la matriz de pesos W es simétrica con ceros en la diagonal.


c) Cada neurona puede tomar los valores de 1.Al vector N –dimensional
x que contiene los valores de las N neuronas de la red se le llama estado
de la red.
d) La forma en que una neurona determina su estado es haciendo un
promedio ponderado vj (al que se le llama Campo Local Inducido) de
las entradas que recibe de otras neuronas (la ponderación se hace de
acuerdo a los pesos sinápticos). Después de acuerdo si

vj > 0 xj=1

vj = 0 xj permanece igual

vj < 0 xj=-1

función de energía

Un requisito para que la Red de Hopfield funcione como memoria asociativa es


que sea un sistema globalmente estable (i.e. no importando la trayectoria
(sucesión de estados) se termina en un punto de equilibrio). Esto pasa si existe
una función Lyapunov para el problema (no diremos en qué consiste esto). Para
la Red de Hopfield existe, y es una función E que tiene como parámetros los
pesos, la resistencia de cada neurona, y como entrada el estado de la red.

Esta función tiene como propiedad ser monotónicamente decreciente, lo que


asegura que la evolución en el tiempo de la red represente una trayectoria en el
espacio de estados que busca un mínimo de la función E.

funcionamiento

Se tiene un conjunto de M memorias fundamentales (vectores de dimensión N


con valores 1, que queremos que la red “recuerde”). Sea {ui}i=1,...,m el
conjunto de estas memorias.

a) Fase de Almacenamiento:

La regla de aprendizaje se usa usualmente a través de la Regla de


Hebb:

1 M T
W  ( ui ui )  MI
N i 1
se determinan los pesos entre neuronas.
(Nota: La elección de la regla de aprendizaje no es trivial, depende de
la correlación entre los patrones que se desean almacenar. Existen
variantes de la Regla de Hebb

b) Fase de recuperación(recuerdo)

i. Inicialización

x(k) representa el estado de la red en la iteración k-ésima. Se


impone un vector prueba prueba (una versión distorsionada
de una memoria fundamental) como estado de la red:
x(0) prueba

ii. Mientras x(k+1)x(k)

 Cálculo de los valores de los campos locales inducidos


v, donde w es la matriz de pesos.
V = Wx(k)

 Se calcula el siguiente estado

Limitaciones

Capacidad de almacenamiento

a) No todas las memorias fundamentales son siempre puntos estables. En


base a estudios probabilísticos se obtuvo que:
N
Las memorias fundamentales serán estables si y solo si
( M  1) es
grande , así que mientras el número de memorias fundamentales sea
pequeño comparado con N , las memorias fundamentales son estables
en un sentido probabilístico.

b) Existen datos espureos (puntos estables que no corresponden a


memorias fundamentales). Asi que la segunda fase, podemos no
“recordar” una memoria fundamental, se dice que “recuerda con
errores”. Se denota la capacidad de almacenamiento con errores como
Mc, es decir, el número de estados que pueden ser recordados con
errores, pero antes de que estos sean severos.
Hopfield haciendo simulaciones estimo Mc=.15 N y haciendo
consideraciones estadísticas obtuvo que Mc=. 14N.Se denota la
Capacidad de Almacenamiento casi sin errores como MMax, se define
como el número más grande de memorias fundamentales que pueden
almacenarse en la red y que la mayoría sea recordada correctamente.
Mc Cliece encontró que
N
M max 
2 ln N

Estados Espurios

a) Negativos: Si x es un punto fijo de la red entonces –x también lo es.

b) Estados Mezcla: Si u1,u2,...,uk, con k impar, son patrones


k
sgn(  ui )
almacenados, entonces i 1 es un estado espúreo. (sgn,
denota la función signo, sgn(x)=1 si x>0, -1 si x<0 y x si x=0).

c) Estados “spin-glass”: son mínimos locales de energía que no están


relacionados con ninguna de las memorias fundamentales.

Eficiencia

Requiere mucho tiempo de procesamiento hasta converger a una


solución estable, lo que limita su aplicabilidad.
Conclusión

Una red de hopfield es una red neuronal artificial mono capa donde todas sus
neuronas están interconectadas.
Se usa para resolver problemas de memoria asociativa y los datos de entrada y
salida son binarios (0,1) o bipolares (-1,1).
Ninguna unidad tiene relación consigo misma y los wij son iguales a los wji tienen
conexiones simétricas
También las redes de hopfield poseen un valor escalar asociado a cada estado de
la red, conocido como energía (E) de la red.
Las aplicaciones más conocidas de ese modelo destacan las relacionadas con el
reconocimiento de voz y de imágenes, el control de motores y sobre todo la
resolución de problemas de optimización como el del agente viajero TSP.
Recomendaciones

Si tenemos demasiadas entradas es preferible no usar redes de hopfield, ya que si


usamos esta red neuronal y guardamos demasiada información durante su
funcionamiento la red puede converger a valores de salidas diferentes de los
aprendidos.

Si tenemos datos parecidos es mejor usar otro tipo de red neuronal ya que si son
parecidas en una entrada la red no haga una asociación correcta y genere una salida
errónea.
BIBLIOGRAFIA

https://es.wikipedia.org/wiki/Memoria_asociativa_(RNA)

http://arantxa.ii.uam.es/~ig/practicas/enunciados/prac3/Hamming.pdf

http://avellano.fis.usal.es/~lalonso/RNA/introHOP.htm

http://www.varpa.org/~mgpenedo/cursos/scx/Tema7/nodo7-1.html

https://lsi.vc.ehu.eus/pablogn/docencia/manuales/SO/TemasSOuJaen/ADMINISTRACI
ONDELAMEMORIA/5.1Paginacion.htm

http://perso.wanadoo.es/alimanya/hopfield.htm

http://www.lcc.uma.es/~lfranco/Clase3-modelo-de-Hopfield.pdf

http://www.varpa.org/~mgpenedo/cursos/scx/Tema5/nodo5-2.html

Potrebbero piacerti anche