Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Redes Neuronales
Osvaldo Comelli
Arturo Garmendia
Rafael Pealoza
Isis Pulido
Aram Zamora
Daniela Zenteno
h( x) exp ( x c) T 1 ( x c ) donde 1 es
2
Si los datos de la muestra son de la forma (xi,di) i=1,...,n , generamos n funciones de base
radial (hi(x) centradas en xi) y la matriz H como sigue:
h1 ( x1 ) h2 ( x1 ) hn ( x1 )
h ( x ) h ( x ) h ( x )
2
2
n
2
H 1 2
h1 ( x n ) h2 ( x n ) hn ( x n )
Los pesos de la capa de entrada a la capa oculta estn determinados por los patrones de
entrada por la frmula wk , j x k ,( j ) (es decir, la j-sima entrada del k-simo vector).
Suponemos que la funcin que gener los datos es de la forma f ( x) wi hi ( x) as, se
puede ver que los pesos (wi) que aproximan la muestra minimizando el error cuadrtico
medio con respecto a los datos se obtienen resolviendo el sistema de ecuaciones:
H w d
w HTH
H T d
hc ( x) exp 2 x c
PESOS
Se calculan por la regla ya mencionada:
w = ( HT H )-1 HT d
Aprendizaje Auto-organizado de los Centros
La varianza y los pesos se calculan de la misma forma que en la seleccin fija.
Se escoge un valor m para el nmero de neuronas escondidas. Los m centros se determinan
por un algoritmo de clusters. Lo que hace este algoritmo es colocar los centros en donde
se encuentran los datos significantes del conjunto de entrenamiento.
A grandes rasgos:
1.- Se inicializan los m centros al azar.
2.- Se elige un punto del conjunto de entrenamiento con cierta probabilidad.
3.- Se determina qu centro es el que se encuentra ms cercano a este punto.
4.- El ganador se acercar al punto en cuestin en una proporcin (tasa de aprendizaje) a
la distancia que hay entre ellos.
El resto de los centros permanecen igual.
5.- Se sigue este proceso hasta que no haya cambios relevantes en los centros.
Aprendizaje Supervisado
El primer paso es definir la funcin de error:
E
1
N
2
e
j 1 j
2
Pesos
wi ( n 1) wi ( n) 1
E ( n)
wi ( n)
Centros
ci ( n 1) ci ( n) 2
Pesos
wi ( n 1) wi ( n) 1
E ( n)
wi ( n)
Centros
E ( n)
ci ( n)
Varianza
i1 ( n 1) i1 ( n) 3
wi ( n 1) wi ( n) 1
E ( n)
wi ( n)
Centros
ci ( n 1) ci ( n) 2
Varianza
E ( n)
ci ( n)
ci ( n 1) ci ( n) 2
E ( n)
ci ( n)
Varianza
E ( n) 1
E ( n)
E ( n)
i ( n 1) i1 ( n) 3
i1 ( n 1) i1 ( n) 3
i1 ( n)
i1 ( n)
i1 ( n)
Bibliografa:
http://www.dsp.pub.ro/articles.html
http://neuralnetworks.ai-depot.com