Sei sulla pagina 1di 13

Karla Janeth Galván Picaso

13480440
Enrique Juárez
Inteligencia Artificial.
 Es Aquella donde existe realimentación entre las neuronas. Al introducir un patrón
de entrada, la información se propaga hacia adelante y hacia atrás, produciéndose
una dinámica
 Esta fue diseñada en 1982 por John Hopfield. Este personaje provoco el
renacimiento de las redes neuronales con su libro: “ Computación neuronal de
decisiones en problemas de optimización.”.
Para que esta red se transforme debe contener los siguientes objetivos:
 Deben converger siempre a un estado estable
 El dominio de atracción de cada estado debe estar perfectamente delimitado y
cumplir algún criterio de métrica
 Debe poder tener cualquier numero de estados estables.
 Este contiene una red monocapa con N neuronas cuyos valores de salida son
binarios: 0/1 ó -1/+1.
 Ademas que es una red discreta con entradas y salidas binarias
 Existen conexiones laterales (cada neurona se encuentra conectada a todas las
demás) pero no autorrecurrentes. Los pesos asociados a las conexiones entre
pares de neuronas son simétricos

A continuación se muestra una


imagen
Donde demuestra lo dicho
 Se trata de una red autoasociativa, por consecuente pueden ser almacenadas en la
red patrones de diferentes informaciones.
 Despues cuando se presenta una entrada de red, esta evoluciona hasta generar
una salida que coincidirá con la que corresponde a esa entrada o mejor explicado
la mas parecida si la entrada esta distorsionada o incompleta
Centrándonos en una sola neurona el funcionamiento sería el siguiente:
 Recibe como entrada la salida de cada una de las otras neuronas (por las
conexiones laterales). Estos valores de salida, inicialmente coinciden con las
entradas del vector, multiplicadas por los pesos de las conexiones
correspondientes. La suma de todos estos valores constituirá el valor de entrada
neta de la neurona a la que hay que aplicarle la función de transferencia
obteniéndose el valor de salida correspondiente. En el instante inicial (t=0) la
información de entrada es (e1, e2, ...eN)
 si(t=0) = ei 1 <= i <= N
 si(t+1) = f (Sum wij sj(t) - 0i) 1 <= i <= N
 Este proceso continúa hasta que las salidas de las neuronas se estabilizan, alcanzan
la convergencia, durante algunas iteraciones.
 si(t+1) = si(t)
 La red Hopfield continua, con funciones de activación de tipo sigmoidal, ofrece más
posibilidades que la discreta ya que permite almacenar patrones formados por valores reales
(por ejemplo, imágenes en color o en blanco y negro con diferentes tonalidades de grises).

 Otro aspecto importante en el funcionamiento de la red es el instante en que se produce la


generación o actualización de las salidas. Si la actualización se realiza de forma simultánea en
todas las neuronas el funcionamiento es paralelo o síncrono. Si, por el contrario, las neuronas
trabajan de forma secuencial, actualizándose sólo la salida de una neurona en cada iteración,
se trata de una red secuencial o asíncrono. En este caso la salida a la que converge la red
puede ser diferente en función del orden de la secuencia de activación.
 El mecanismo de aprendizaje utilizado es de tipo OFF LINE, por lo que existe una
etapa de aprendizaje y otra de funcionamiento de la red. También utiliza un
aprendizaje no supervisado de tipo hebbiano, de tal forma que el peso de una
conexión entre una neurona i y otra j se obtiene mediante el producto de los
componentes i-ésimo y j-ésimo del vector que representa la información o patrón
que debe almacenar.

 Utilizando una notación matricial, para representar los pesos de la red se puede
utilizar una matriz de dimensión NxN (recordemos que N es el número de
neuronas de la red y por tanto de componentes del vector de entrada). Esta matriz
es simétrica (wij = wji) y con la diagonal con valores nulos (wii = 0) al no haber
conexiones autorecurrentes.
1. Número limitado de entradas en la etapa de aprendizaje:
 Si se almacenan demasiadas informaciones, durante su funcionamiento la red
puede converger a valores de salida diferentes de los aprendidos, con lo que la
tarea de asociación entre la información presentada y alguna de las almacenadas
se realiza incorrectamente. Esta situación no se produce nunca si el número de
informaciones almacenadas es menor o igual que N / (4lnN) siendo N el número
de neuronas de la red. Si se permite la posibilidad de un mínimo error en la
recuperación de las informaciones almacenadas, suficientemente pequeño para
poder identificar dicha infomación, el número de informaciones almacenadas
puede ascender por debajo de un 13,8 % del número de neuronas de la red.
2. Ortogonalidad de las informaciones aprendidas:
 Si las informaciones almacenadas no son suficientemente diferentes entre sí (no son
ortogonales) puede ocurrir que ante una entrada la red no haga una asociación
correcta y genere una salida errónea, tal vez la salida correspondiente a otra entrada
aprendida que fuese muy parecida.

 Lo que se debe conseguir es que las informaciones que se dan a la red durante la etapa
de aprendizaje sean ortogonales, lo cual ocurre si se cumple que cada par de patrones
de entrada difieren en, al menos N/2 componentes, siendo N el número total de
componentes por patrón. Esta condición puede expresarse como:

 Sumi=1..N (ei,k . ei,m) <= 0 para k distinto de m

 donde ei,k y ei,m son los valores binarios (+1 o -1) de los componentes i-ésimos de
dos vectores (patrones) diferentes (k y m) a almacenar en la red.

 Esta condición de ortogonalidad que establece que dados dos patrones de entrada
deben diferir en al menos la mitad de sus componentes (distacia Hamming), puede ser
relajada, estableciendo una distancia mínima del 30% para que se garantice todavía un
funcionamiento aceptable.
 Aplicaciones
 En cuanto a las aplicaciones más conocidas de este modelo destacan las
relacionadas con el reconocimiento de imágenes y de voz, el control de motores y
sobre todo la resolución de problemas de optimización. En este último ámbito se
ha aplicado para la resolución de ecuaciones y del problema del viajante de
comercio, manipulación de grafos, procesado de señales (conversores analógico-
digitales) y de imágenes, etc.

 A modo de ejemplo y para que sirva como orientación de como se resuelve un


problema mediante el modelo de Hopfield, desarrollaremos a continuación el
problema del vendedor viajero.
 Problema del vendedor viajero (TSP: Travelling Salesman Problem)
 Este problema consiste en, dadas N ciudades que tiene que visitar un vendedor,
encontrar el camino más corto para, partiendo de una de ellas, visitarlas todas sin
pasar más de una vez por cada una y volviendo finalmente a la ciudad de partida.

 La complejidad reside en la enorme cantidad de posibles caminos, muchos de


ellos de longitud similar. Para N ciudades, el número de rutas alternativas es de N!
/ (2N). De esta forma, para 5 ciudades existen 12 caminos posibles; para 10
ciudades, el número de rutas es de 181.440.

 Vamos a centrarnos en el caso particular de 5 ciudades. En este ejemplo, como


hemos dicho anteriormente, existirían 12 rutas cerradas diferentes, cuya longitud
dependerá del orden en que se visiten las ciudades.
0

Potrebbero piacerti anche