Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Neurona Artificial
Neurona Artificial
Neurona Artificial
Neurona Artificial
neta j = xi wi = X .W
i =1
Neurona Artificial
Neurona Artificial
i =1
Neurona Artificial
y = f (neta)
10
Funciones de Transferencia
Hardlim (limitador fuerte)
11
Funciones de Transferencia
Hardlims (limitador fuerte simtrico)
12
Funciones de Transferencia
Purelin (Lineal)
13
Funciones de Transferencia
Logsig (Sigmoide)
Es acotada y derivable
Prof. Laura Lanzarini
14
15
Perceptrn
1 si neta
y=
0 si neta <
Prof. Laura Lanzarini
16
Ejemplo
Verifique si la siguiente red neuronal se
comporta como la funcin lgica AND
17
AND
x1w1 + x2 w2 =
x1 + x2 = 1.5
18
19
Producto interior
Calcular v . w
20
21
Vector de proyeccin
22
Xw <
Xw =
|W |
W .X <
|W |
W .X =
Xw >
|W |
W .X >
Prof. Laura Lanzarini
23
Aprendizaje supervisado
Prof. Laura Lanzarini
24
25
t al valor esperado
y al valor obtenido
wnuevo = w + (t - y) x
Prof. Laura Lanzarini
t=1
y=0
26
t al valor esperado
y al valor obtenido
wnuevo = w + (t - y) x
Prof. Laura Lanzarini
t=0
y=1
27
28
Ejemplo 1
Entrenar un perceptrn para que se
comporte como la funcin lgica AND.
Utilice
= 0.3
= 1.5
W1 = 0
W2 = 0.25
Ej1_AND.m
Prof. Laura Lanzarini
29
AND
X1
X2
T
W1
W2
Y
W1new
W2new
------------------------------------------------------------0
0
0
0.00
0.25
0
0.00
0.25
1
0
0
0.00
0.25
0
0.00
0.25
0
1
0
0.00
0.25
0
0.00
0.25
1
1
1
0.00
0.25
0
0.30
0.55
30
AND
X1
X2
T
W1
W2
Y
W1new
W2new
------------------------------------------------------------0
0
0
0.00
0.25
0
0.00
0.25
1
0
0
0.00
0.25
0
0.00
0.25
0
1
0
0.00
0.25
0
0.00
0.25
1
1
1
0.00
0.25
0
0.30
0.55
------------------------------------------------------------0.30
0.55
0
0.30
0.55
0
0
0
0.30
0.55
0
0.30
0.55
1
0
0
0.30
0.55
0
0.30
0.55
0
1
0
0.30
0.55
0
0.60
0.85
1
1
1
------------------------------------------------------------0
0
0
0.60
0.85
0
0.60
0.85
1
0
0
0.60
0.85
0
0.60
0.85
0
1
0
0.60
0.85
0
0.60
0.85
1
1
1
0.60
0.85
0
0.90
1.15
------------------------------------------------------------0
0
0
0.90
1.15
0
0.90
1.15
1
0
0
0.90
1.15
0
0.90
1.15
0
1
0
0.90
1.15
0
0.90
1.15
1 Laura 1Lanzarini1
0.90
1.15
1
0.90
1.15 31
Prof.
AND
X1
X2
T
W1
W2
Y
W1new
W2new
------------------------------------------------------------0
0
0
0.00
0.25
0
0.00
0.25
1
0
0
0.00
0.25
0
0.00
0.25
0
1
0
0.00
0.25
0
0.00
0.25
1
1
1
0.00
0.25
0
0.30
0.55
------------------------------------------------------------0.30
0.55
0
0.30
0.55
0
0
0
0.30
0.55
0
0.30
0.55
1
0
0
0.30
0.55
0
0.30
0.55
0
1
0
0.30
0.55
0
0.60
0.85
1
1
1
------------------------------------------------------------0
0
0
0.60
0.85
0
0.60
0.85
1
0
0
0.60
0.85
0
0.60
0.85
0
1
0
0.60
0.85
0
0.60
0.85
1
1
1
0.60
0.85
0
0.90
1.15
------------------------------------------------------------0
0
0
0.90
1.15
0
0.90
1.15
1
0
0
0.90
1.15
0
0.90
1.15
0
1
0
0.90
1.15
0
0.90
1.15
1 Laura 1Lanzarini1
0.90
1.15
1
0.90
1.15 32
Prof.
Perceptrn
1 si neta 0
y=
0 si neta < 0
Prof. Laura Lanzarini
33
Ejemplo 2
Entrenar un perceptrn para que se
comporte como la funcin lgica AND.
Utilice
= 0.3
W0 = 0
W1 = 0
W2 = 0.25
Ej2_AND.m
Prof. Laura Lanzarini
34
Ejemplo 2
X0
X1
X2
T
W0
W1
W2
Salida
NewW0
NewW1
NewW2
-----------------------------------------------------------------------------------1
0
0
0
0.00
0.00
0.25
1
-0.30
0.00
0.25
1
1
0
0
-0.30
0.00
0.25
0
-0.30
0.00
0.25
1
0
1
0
-0.30
0.00
0.25
0
-0.30
0.00
0.25
1
1
1
1
-0.30
0.00
0.25
0
0.00
0.30
0.55
-----------------------------------------------------------------------------------1
0
0
0
0.00
0.30
0.55
1
-0.30
0.30
0.55
1
1
0
0
-0.30
0.30
0.55
1
-0.60
0.00
0.55
1
0
1
0
-0.60
0.00
0.55
0
-0.60
0.00
0.55
1
1
1
1
-0.60
0.00
0.55
0
-0.30
0.30
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.30
0.30
0.85
0
-0.30
0.30
0.85
1
1
0
0
-0.30
0.30
0.85
1
-0.60
0.00
0.85
1
0
1
0
-0.60
0.00
0.85
1
-0.90
0.00
0.55
1
1
1
1
-0.90
0.00
0.55
0
-0.60
0.30
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.60
0.30
0.85
0
-0.60
0.30
0.85
1
1
0
0
-0.60
0.30
0.85
0
-0.60
0.30
0.85
1
0
1
0
-0.60
0.30
0.85
1
-0.90
0.30
0.55
1
1
1
1
-0.90
0.30
0.55
0
-0.60
0.60
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.60
0.60
0.85
0
-0.60
0.60
0.85
1
1
0
0
-0.60
0.60
0.85
1
-0.90
0.30
0.85
1
0
1
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
1
1
1
-0.90
0.30
0.85
1
-0.90
0.30
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
1
0
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
0
1
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
1
1
1
-0.90
0.30
0.85
1
-0.90
0.30
0.85
Ejemplo 2
36
Demo de MatLab
37
Neurona Artificial
Representacin de MatLab
38
Plotpv
Grafica los patrones de entrada y la salida
esperada (binaria).
Sintaxis:
plotpv(p,t)
donde
39
Plotpv
Ejemplo
p = [0 0 1 1;
0 1 0 1];
t = [0 0 0 1];
plotpv(p,t)
40
Plotpv
Grafica los patrones de entrada y la salida
esperada (binaria).
Sintaxis:
plotpv(p,t,v)
donde
41
Plotpv
Ejemplo
p=[2.5
1
1.2
1;
t=[1 0 1 0];
v=[-1 5 -5 5];
plotpv(p,t,v)
42
Plotpc
Grafica la superficie discriminante.
Sintaxis:
plotpc(W,b)
donde
W es la matriz de pesos de SxR (R<=3).
B es el vector bias de Sx1
43
Plotpc
Ejemplo
axis([-1 5 -5 5])
W=[0.625
0.25];
b=-0,50;
(1)
h = plotpc(W,b);
pause %presione una tecla
W=[-0.125
1.10];
b=-0,50;
(2)
h = plotpc(W,b,h);
Prof. Laura Lanzarini
44
Plotpv
X = [
1
2
2.7 2 3
0.5 2.3
1
5 3.5
T = [0 0 0 0 0 1 1 1 1;
0 0 0 1 1 1 1 0 0];
plotpv(X,T)
5.5
7
7 7 8;
6 2 1];
45
Plotpc
W = [ 14.7003
-4.5863;
-12.3377
19.0720];
b = [-45.2174;
-22.4758];
plotpc(W,b)
14.7003 p1 - 4.4863 p2 - 45.2174 =0
-12.3377 p1 + 19.072 p2 - 22.4758 =0
46
EP Genrico
47
Red Neuronal
La habilidad de procesamiento de la red
est almacenada en el peso de sus
conexiones
Los pesos se obtienen a partir de un
proceso de adaptacin (aprendizaje) a
los datos de entrada.
Prof. Laura Lanzarini
48
Redes multicapa
Ver que el perceptrn no puede resolver el
problema del XOR porque no es linealmente
separable.
49
AND
p1+p2-1.5=0
w11=1 w12=1;
b1=-0.5
Prof. Laura Lanzarini
w31=1 w32=-1.5
b3=-0.5
50
Ejercicio 1
Sobre una cinta transportadora circulan naranjas y
melones. Se busca obtener un clasificador de frutas que
facilite su almacenamiento. Para cada fruta se conoce su
dimetro, en centmetros y su intensidad de color
naranja, medida entre 0 y 255.
Ejemplos:
Naranjas = { (10,200), (8,150), (7,170), (15,250)}
Meln = {(20,30), (26,30), (24,32), (19,31)}
Entrenar un perceptrn que permita resolver el problema.
Utilice como W inicial (0,0,0) e ingrese los patrones en
forma alternada (tomar uno de cada conjunto).
51
Ejercicio 1
Entrenar un perceptrn con los patrones:
Naranjas = { (10,200), (8,150), (7,170), (15,250)}
Meln = {(20,30), (26,30), (24,32), (19,31)}
Utilice como W inicial (0,0,0)
Ingrese los patrones
52
Ejercicio 1
Al entrenamiento anterior agregar los siguientes
patrones:
Naranjas = { (20,170), (21,180), (22,190),
(24,250), (15,250)}
Meln = {(21,160), (23,160), (23,190), (15,31)}
Utilice como W inicial (0,0,0)
Ingrese los patrones en distinto orden.
Pruebe con distintos valores de alfa.
Prof. Laura Lanzarini
53
Ejercicio 2
Una agencia de modelos public los resultados de la ltima
seleccin de postulantes. En ella se haban presentado seis
mujeres. Cada una de ellas ha sido caracterizada slo por su
peso y altura.
El resultado fue el siguiente:
Aceptadas = {(52,1.79), (53,1.81), (55,1.75)}
Rechazadas = {(65,1.70), (68,1.65), (58,1.71)}
A) Represente el criterio de seleccin a travs de una RN formada
por un nico perceptrn.
B) Cul sera la respuesta del perceptrn de a) si se presentaran
estas postulantes:
{(56,1.73), (70,1.60), (45,1.80)}
Prof. Laura Lanzarini
54