Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sistemas inteligentes
Razonamiento Bivaluado
Procesamiento Simblico
Sistemas Borrosos
Razonamiento Borroso
Procesamiento Numrico
SISTEMAS NEURONALES
Requieren disponibilidad de datos histricos
Procesamiento Numrico
Sistemas Evolutivos
Requieren disponibilidad de un criterio de bondad
de posibles soluciones o de posibles programas
Procesamiento Numrico
La neurona biolgica
O = fs( fa ( fp ( I i , wi )))
Donde:
fp : funcin de propagacin
fa : funcin de activacin
fs : funcin de salida
Usualmente:
n
fp = wi I i + w0
i =1
fs : funcin identidad
Funciones activacin
fa ( x ) = 1 si x 0
0 si x < 0
fa ( x) = 1 si x 0
1 si x < 0
fa( x ) = sgn( x)
fa ( x ) =
1
1+ e x
Neurocomputacin
para x < 0
McCulloch y Pitts
Demuestran que cualquier funcin lgica puede construirse con
una combinacin apropiada de elementos. (Compuertas AND y NOT)
Falencias importantes:
1. No explic cmo podan formarse las interconexiones
necesarias entre neuronas, en particular, cmo poda ocurrir el
aprendizaje.
2. Estas redes dependan del funcionamiento libre de error de
todas sus componentes y no presentaban la tolerancia a errores de
las redes neuronales biolgicas.
Formulacin matemtica:
wi = lrate . y(x) . ai
para el cambio de pesos sinpticos wi (i = 1, 2, ..., n) de una neurona
receptora de una entrada a = (a1, a2, ..., an)T cuando ai es la entrada de la
i-sima sinapsis. El valor de y(x) denota el estado de activacin de la
neurona y lrate > 0 es un parmetro de medida del tamao de un paso
simple de aprendizaje que comnmente se denomina: razn de
aprendizaje.
Las cantidades y(x) y wi tambin pueden considerarse continuas.
estmulo S(t) = s i
salida: R(t) = rj
Conceptos importantes:
historia del sistema
historias equivalentes
Teorema:
Cada mquina de estados finitos es equivalente y puede ser
simulada por una red neuronal.
Zona sensorial
(S)
Zona de asociacin
(A)
(Capa de entrada)
Zona de respuesta
(R)
(Capa de salida)
si u
si u <
Regla de Hebb
El aprendizaje ocurre en el sistema nervioso por refuerzo de las conexiones
entre dos neuronas que se activan en el mismo tiempo.
wij = lrate . a i aj
donde:
wij a j
ai = j
Regla Delta
Variante de la regla de Hebb, pues mantiene la intuicin bsica de que cada
cambio en el peso de la conexin ente dos neuronas depende de qu est
pasando entre las neuronas involucradas.
La red recibe un patrn de entrada, genera el patrn de salida actual usando los
pesos existentes (este paso es omitido por Hebb), compara este con el patrn
de salida deseado y cambia cada peso basado en la diferencia de cada unidad
de salida.
Es un ejemplo de aprendizaje supervisado.
Error para el patrn de salida entero: pss (pattern sum of squares)
pss = (d u a u ) 2
u
Redes multicapa
Soluciona las limitaciones del perceptrn.
Inserta unidades escondidas entre las de entrada y las de salida.
La regla delta generalizada la propagacin de la medida del error que es
calculado en las unidades de salida hacia atrs en la red, por ejemplo por
backpropagation.
Back-error-propagation
Para una red de tres capas i, j, k:
wkj = k l u j k
n
k = f a (uk ) n (d k u k ) n
n
'
w ji = kl ui j
n
j = f a (u j ) n wkj k
n
'
BACK-ERROR-PROPAGATION
Ejemplo de clculo
w 211 = u 21 31
w 2 21 = u 22 31
w 212 = u 21 32
w 2 22 = u 22 32
w111 = u11 21
31 = f ' (u 31 )(d 31 u 31 )
32 = f ' (u 32 )(d 32 u32 )
21 = f ' (u21 )(w 211 31 + w 212 32 )
Finalmente:
w 111 = u11 f ' (u 21 )(w 211 f ' (u31 )(d 31 u 31 ) + w 212 f ' (u 32 )(d 32 u32 ))
Arquitecturas neuronales
Feedforward
u1
(estado 1)
Recurrente
u4
(estado 1)
u2
(estado 1)
Estado de la red:
u = (1,1,-1,1)
u3
(estado -1)
Modelos Discretos
Para ciertas arquitecturas y condiciones, son un aproximador universal de funciones
booleanas
Modelos Continuos
Para ciertas arquitecturas y condiciones, son un aproximador universal de funciones
reales
Aprendizaje neuronal
Por Programacin
Off-Line
W se obtiene por clculo
Fase de clculo
Por Entrenamiento
Off-Line
W se obtiene por un algoritmo
Fase de entrenamiento y Fase de Verificacin
Supervisado
- Por Maestro
(2)
- Por Crtico
Por Refuerzo
(3)
(4)
No Supervisado
- Hebbiano
(1)
Por Operacin
Inspiracin biolgica
On-Line
El aprendizaje se realiza operando,
con cada nueva informacin
(5)
Clasificacin de Patrones
Reconocimiento de Patrones
(1)
- Aprendizaje Supervisado
- Memoria Heteroasociativa
Clustering
(2)
- Aprendizaje No Supervisado
- Memoria Heteroasociativa
Completamiento
de Patrones
(3)
- Aprendizaje Programado
- Memoria Autoasociativa
Clustering
Si hay n propiedades para describir los patrones, un cluster puede ser definido
como una regin en un espacio n-dimensional, conteniendo una relativamente
alta densidad de puntos, separada de otras regiones, por regiones conteniendo
una relativamente baja densidad de puntos
La identificacin de cuntos y cules clusters existen en un conjunto de datos,
exige definir una medida de similaridad
Condiciones de parada
Por Verificacin