Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Self Organizing Maps
Self Organizing Maps
Self Organizing Maps
1 7.1 - Definizioni 1
1.1 La relazione di vicinato . . . . . . . . . . . . . . . . . . . . . 2
1.2 Vector Quantization Learning (VQL) . . . . . . . . . . . . . . 2
1.3 Topology Preserving Maps . . . . . . . . . . . . . . . . . . . . 2
1 7.1 - Definizioni
Assomiglia molto ad una NN radiale, ma non ha Hidden Layer: è fatta quindi
solo di due layer, uno di ingresso e uno di uscita.
Per ogni neurone di uscita:
1
1.1 La relazione di vicinato
Le SOM più complesse definiscono una relazione di vicinato tra neuroni
di output. Tipicamente, queste relazioni si traducono nella costruzione di
griglie esagonali/quadrate (rispettivamente: ogni nodo ha esattamente 4 o 6
vicini, eccetto per i nodi sul bordo della griglia).
2
Ok, solita distinzione tra batch e online training: cambia solo che batch è
molto più smooth nella traiettoria che segue lo spostamento dei vari reference
vectors.
Sembra che la batch mode sia molto simile a k-means, per motivi che
non capisco.
2.2.1 Varianti
In alcune varianti si adatta (aka. attrarre/respingere) non solo il reference
vector più vicino, ma anche il secondo più vicino.
Per risolvere alcuni problemi (namely: il fatto che anche con questi
miglioramenti il LVQ non funziona sempre bene) si introduce la nozione di
Window Rule: in pratica, attrai/respingi uno/due reference vectors solo
3
in base ai punti che sono sul bordo della classificazione. Non si è capito una
mazza.
In pratica: se un punto del dataset è vicino al confine che separa, per
intenderci, una cella di Voronoi e la sua vicina, allora quel punto (e tutti
gli altri come lui che sono sufficientemente vicini al confine) viene preso in
considerazione dalla Window Rule; tutti gli altri, no. La nozione di "essere
vicino al confine" può essere formalizzata.