Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Neuronales (Neurales)
CO-6612
Coordenadas iniciales:
Prof. Minaya Villasana
Oficina: CBI-112
Extension: 906 3386
forma más fácil (preferida) de contacto: mvillasa@usb.ve
Axón y dendritas
http://www.4colorvision.com/pix/pyramidpix.gif
Introducción a las Redes Neuronales Artificiales
Introducción
Ejemplo
Respuesta
Estímulo 1
Estímulo 2
Respuesta
w1
w2
Μ wm
Axón:
Para enviar la
respuesta
Núcleo:
Para procesar la
información
( x1 , x 2 , Κ , x m )
Cada entrada del vector corresponde a un estímulo o variable en particular de la cual
se tiene cierta cantidad de observaciones o valores.
x1 w1
m
x2 w2
w1 x1 + w2 x2 +Κ + wm xm = ∑wj xj
j=1
ΜΜ
wm
xm
Este valor se considera como el
estímulo que recibe la neurona
⎛m ⎞
⎜
⎜ j= 1 ⎟
(
ϕ ∑wj x j + b ⎟ = ϕ X tW + b )
⎝ ⎠
ϕ Se denomina función de transferencia o activación
x1 w1
x2 w2 ∑ ϕ ( X tW + b)
ΜΜ
wm
xm Este valor se considera como la
respuesta de la neurona al
estímulo recibido
Introducción a las Redes Neuronales Artificiales
Modelo de una neurona
• La función de transferencia ϕ
• El parámetro de sesgo b
Este puede ser considerado como un peso sináptico w0 = b asociado a
una dendrita que recibe siempre el estímulo x0 = 1
⎡1⎤ ⎡b⎤
⎛m ⎞ ⎛m ⎞ ⎢x ⎥ ⎢w ⎥
⎜ j=1 ⎟ ⎜ j= 0 ⎟
(
ϕ⎜ ∑wj x j + b ⎟ = ⎜ ∑wj x j ⎟ =ϕ X tW ) X =⎢ 1⎥ W =⎢ 1⎥
⎝ ⎠ ⎝ ⎠ ⎢ Μ⎥ ⎢ Μ⎥
⎢ ⎥ ⎢ ⎥
⎣xm ⎦ ⎣wm ⎦
Introducción a las Redes Neuronales Artificiales
ACERCA DE LA FUNCIÓN
DE ACTIVACIÓN
⎧ 1 si x ≥ 0
ϕ (x) = ⎨
⎩ 0 si x < 0
X tW ≥ − b o X tW < − b
Generalmente se utiliza para establecer criterios de clasificación. Por
ejemplo, 1=Elemento tipo A, 0=Elemento tipo B
1 X tW +b ≥ 0
1 =
-1 1 0 =
-1
X tW +b ≤ 0
⎡0⎤ ⎡1⎤
W = ⎢⎢1⎥⎥ X = ⎢⎢x⎥⎥
X tW + b = x + y
⎢⎣1⎥⎦ ⎢⎣ y⎥⎦
Ejemplo:
⎡0⎤ ⎡0.8⎤
⎢1⎥ ⎢1⎥
estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1
⎢−1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
⎣0⎦ ⎣0.5⎦
ϕ (− 1) = 0
La función signo
Esta función está definida como
⎧ − 1 si x < 0
⎪
ϕ ( x ) = ⎨ 0 si x = 0
⎪ 1 si x > 0
⎩
La respuesta de la neurona es entonces -1, 0 o 1.
-1
En matlab la función se
denomina hardlimits
X tW +b > 0
1
1 =
-1 =
-1 1 0 =
X tW +b < 0 -1
X tW +b = 0
X tW + b = x + y
Ejemplo:
⎡0⎤ ⎡0.8⎤
⎢1⎥ ⎢1⎥
estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1
⎢−1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
⎣0⎦ ⎣0.5⎦
ϕ (− 1) = − 1
La función logística
Esta función está definida como
ϕ (x ) =
1
x ∈ R, α > 0
1 + exp (− α x )
Es una de las funciones más utilizadas en la construcción de redes neuronales
Es continua a valores en [0, 1] e infinitamente diferenciable
Es la versión continua de la función umbral y se utiliza en problemas de aproximación
ϕ 1.4
α =3
1.2
α =1
1
0.8 α = 0.3
0.6
0.4
En matlab la función se
0.2 denomina logsig
0
-10 -5 0 5 10
Introducción a las Redes Neuronales Artificiales
La función de activación
Ejemplo:
⎡0⎤ ⎡0.8⎤
⎢1⎥ ⎢1⎥
estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1
⎢−1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
⎣0⎦ ⎣0.5⎦
ϕ (− 1 ) =
1
= 0 . 2689
1 + exp (1)
1 − exp (− α x )
ϕ ( x ) = tanh( x / 2) = x ∈ R, α > 0
1 + exp (− α x )
Es la versión continua de la función signo y se usa en problemas de aproximación
Es importante por sus propiedades analíticas
-0.5
-1 En matlab la función se
denomina tansig
-1.5
-10 -5 0 5 10
Ejemplo:
⎡0⎤ ⎡0.8⎤
⎢1⎥ ⎢1⎥
estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1
⎢−1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
⎣0⎦ ⎣0.5⎦
1 − exp ( 2 )
( )
ϕ −1 = = − 0 . 76159
1 + exp ( 2 )
La función Lineal
Esta función está definida como
ϕ (x ) = x x∈R
ϕ
3
2
1
1 2 3
En matlab la función se
denomina purelin
Una regresión lineal simple puede ser vista como la respuesta de una
neurona con función de activación lineal
⎡1⎤ ⎡b⎤
X =⎢ ⎥ W =⎢ ⎥ X tW = ax+ b
⎣ x⎦ ⎣a⎦
∑
1
ϕ ( X tW ) = ax + b
x a
⎧0 si x ≤ 0
⎪
ϕ ( x ) = ⎨ x si 0 ≤ x ≤ 1
⎪ 1 si x ≥ 1
⎩
ϕ
1
En matlab la función se
denomina satlin (saturating
linear)
⎧− 1 si x ≤ − 1
⎪
ϕ ( x ) = ⎨ x si − 1 ≤ x ≤ 1
⎪ 1 si x ≥ 1
⎩
ϕ
1
-1 1
-1
En matlab la función se
denomina satlins (symmetric
saturating linear
Estímulo
Umbral o threshold 0
Signo -1
logística 0.2689
Tangente Hiperbólica -0.76159
Lineal -1
Lineal Acotada 0
Lineal Acotada Simétrica -1
w1
w2 ∑
Μ wm
• Paradigmas de aprendizaje
Corresponden a la manera en que la red neuronal interactúa o se
relaciona con el ambiente en el cual opera. Básicamente existen 2
tipos de paradigmas:
• Algoritmos de entrenamiento
Son técnicas matemáticas o heurísticas bien establecidas a través de
los cuales se obtienen los valores de los pesos sinápticos y el
parámetro de sesgo. Estos algoritmos NO modifican la función de
activación elegida para el modelo de red neuronal que se entrena.
Lo que hacen es modificar los pesos sinápticos utilizando el valor
anterior de este mas un factor de corrección
W nuevo
=W viejo
+ ΔW
y se diferencian uno de otro en la forma en que dicha corrección es
obtenida
Neuron k
x1 wk 1
Yk =ϕk (∑wkj xj )
x2 wk 2 ∑
Μ Μ
wkm
xm
α = Constante de aprendizaje
wkj (η +1) = wkj (η) +α ek (η) x j (η)
ek = dk −Yk = Error cometido
Δwkj
Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos
xj
wkj (η +1) = wkj (η) +α yk (η) x j (η)
w kj
Yk
Δwkj Neuron k
Competitive Learning
Δ w kj
Distancias ||x-y||
• Euclidea : ||x-y|| x
• Producto interno : xt*y y
xTy
Introducción a las Redes Neuronales Artificiales
Arquitecturas
Arquitecturas
• Una capa, feedforward
• Multicapa feedforward
• Redes recurrentes