Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Aprendizaje Supervisado
Ingeniería del Conocimiento
Ingeniería de Sistemas
Universidad del Magdalena
Estructura de una Neurona Biológica
Las dendritas se conectan a
miles de otras neuronas.
Cuando se dispara una carga
positiva o negativa las
dendritas las reciben. La fuerza
de todas la cargas recibida se
suman.
Los tres conceptos claves que se tratan de emular de un sistema nervioso son:
paralelismo, memoria distribuida y adaptabilidad al entorno.
Elementos de una Neurona Artificial
• Conjunto de entradas xj(t).
• Pesos sinápticos de la neurona i, wij
Potencial postsináptico.
• Función de activación: ai(t) = fi (ai(t-1), hi(t)).
Estado de activación actual en función de su
estado anterior y su potencial postsináptico.
• Función de salida: Fi(ai(t))
Funciones de Activación
Modelo Estándar Simple
Salida igual a la
función de activación
Bias
b
x1 w Activation
1 Induced function
Field Output
x2 w2 v () y
Input
values
Summing
function Función de
propagación
xm wm suma
weights ponderada
( )= ( − )
Redes Neuronales Supervisadas
• Perceptron Simple
• Adalina
• Perceptron Multicapas
Regla de Aprendizaje de Hebb
• Se denomina aprendizaje hebbiano aquella
forma de aprendizaje que involucra una
modificación de los pesos Δwij proporcional al
producto de una entrada j por una salida i de
la neurona.
Δ wij = Ey x i j 0<E<1
n neuronas de entrada
= − ,∀ ,1 ≤ ≤
y m neuronas de salida
w1 x1 w2 x2
w1 x1 w2 x2
w1 x1 w2 x2
Perceptron Simple
• Su regla de aprendizaje esta basada en la regla
de Hebb: (eq. Pg. 53)
wij t (t )zi t yi t
Algoritmo del Perceptron
Paso 0: Inicialización
Inicializar los pesos sinápticos con números aleatorios del intervalo [-1,1]. Ir al
paso 1 con k=1
Paso 1: (k-ésima iteración) n1
Calcular y (k ) H w j x j (k )
j 1
Paso 2: Corrección de los pesos sinápticos
Si z(k) y(k) modificar los pesos sinápticos según la expresión:
1
g x
1 exp 2 x
Regla de Aprendizaje
M M L
yi g1 wij s j g1 wij g 2 t jr xr
j 1 j 1 r 1
1 p M
E zi k yi k
2
2 k 1 i 1
E
wij ( k ) zi k yi k g1' hi s j k
wij k
E E s j k
t jr
t jr k s j k t jr k
Algoritmo
Paso 0: Inicialice los pesos. use valores aleatorios pequeños: wji y tjr
establezca el valor de ᵑ.
Paso 1: Mientras la condición de parada sea falsa realice los pasos 2-9
Paso2: para cada vector de entrenamiento, realice los
pasos 3-8:
Paso3: Establezca las activaciones de entrada.
Paso4: calcule la salida en la capa oculta.
paso5: Calcule el valor de salida en capa de salida (k = 1,…M)
Paso6: Para cada unidad de salida calcule el error (k=1,…M)
y la corrección de los pesos
Paso7: Para la capa oculta propague el error, calcule el error
para cada neurona y la corrección de los pesos
Paso8: Actualice los pesos en la capa de salida y la capa oculta
Paso9: Verifique la condición de parada.