Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
INSTITUTO DE INFORMTICA
PROGRAMA DE PS-GRADUAO EM COMPUTAO
SUMRIO
LISTA DE FIGURAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
LISTA DE TABELAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
LISTA DE ALGORITMOS . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
RESUMO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
ABSTRACT
17
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 INTRODUO . . . . . . . . . . . . . .
1.1
Contexto do trabalho . . . . . . . . . . .
1.2
Motivao principal . . . . . . . . . . .
1.3
Objetivo geral e objetivos especficos . .
1.4
Posicionamento, justificativa e relevncia
1.5
Contribuies relevantes . . . . . . . . .
1.6
Estrutura da dissertao . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
18
18
21
22
22
24
24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
26
26
27
27
28
28
29
29
29
30
30
30
33
40
. . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
41
41
42
43
3.4
A rede neural de mltiplos neurnios . . . . . . .
3.5
A rede neural auto-organizvel de Kohonen . . . .
3.5.1
Processo de competio . . . . . . . . . . . . .
3.5.2
Processo de cooperao . . . . . . . . . . . . .
3.5.3
Processo de adaptao . . . . . . . . . . . . . .
3.5.4
Mtricas de preciso e preservao de topologia
3.5.5
Propriedades do mapa de caractersticas . . . .
3.6
Consideraes do captulo . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
47
49
49
50
51
51
52
4 TRABALHOS CORRELATOS . . . . . . . . . . . . . . . . . . . . . . .
4.1
As redes neurais auto-organizveis temporais . . . . . . . . . . . . . . . . .
4.1.1
Processamento de seqncias temporais: definies e propriedades . . . .
4.1.2
Memrias de curto prazo . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3
Time-Delayed Self-Organizing Map (TDSOM) . . . . . . . . . . . . . .
4.1.4
Differentiator-Integrator Neuron (DIN) . . . . . . . . . . . . . . . . . . .
4.1.5
Temporal Kohonen Map (TKM) . . . . . . . . . . . . . . . . . . . . . .
4.1.6
Recurrent Self-Organizing Map (RSOM) . . . . . . . . . . . . . . . . . .
4.1.7
Contextual Self-Organizing Map (CSOM) . . . . . . . . . . . . . . . . .
4.1.8
Sequential Activation Retention and Decay NETwork (SARDNET) . . . .
4.1.9
Adaptive Resource Allocating Vector Quantization (ARAVQ) . . . . . . .
4.1.10 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2
As redes neurais auto-organizveis construtivas . . . . . . . . . . . . . . .
4.2.1
Growing Cell Structures (GCS) . . . . . . . . . . . . . . . . . . . . . . .
4.2.2
Incremental Grid Growing (IGG) . . . . . . . . . . . . . . . . . . . . . .
4.2.3
Growing Grid (GG) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.4
Growing Neural Gas (GNG) . . . . . . . . . . . . . . . . . . . . . . . .
4.2.5
Adaptive Resonance Theory (ART) . . . . . . . . . . . . . . . . . . . . .
4.2.6
Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3
Consideraes do captulo . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
54
55
55
64
64
64
65
65
66
66
67
68
69
70
70
71
72
72
73
74
74
75
79
80
81
81
82
83
86
87
87
88
90
91
93
. . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
6 RESULTADOS EXPERIMENTAIS . . . . . . . . . . . . . . . . . . . . .
6.1
Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2
Quantizao vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1
Distribuio bidimensional de dados . . . . . . . . . . . . . . . . . . . .
6.2.2
Distribuio no-linearmente separvel de dados . . . . . . . . . . . . . .
6.2.3
Distribuio multimodal de dados . . . . . . . . . . . . . . . . . . . . .
6.2.4
Distribuio no-estacionria de dados . . . . . . . . . . . . . . . . . . .
6.2.5
Distribuio no-uniforme de dados . . . . . . . . . . . . . . . . . . . .
6.3
Segmentao de seqncias temporais . . . . . . . . . . . . . . . . . . . .
6.3.1
Distribuio espao-temporal de dados em forma de 8 . . . . . . . . . .
6.3.2
Distribuio espao-temporal de dados em forma de circunferncia . . . .
6.4
Consideraes do captulo . . . . . . . . . . . . . . . . . . . . . . . . . . .
95
95
96
96
101
102
103
105
106
106
113
116
. . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
130
130
131
133
133
134
137
137
ADALINE
. . . . . . . . . . . . . . . . . . . . .
AHIGG
API
ARAVQ
66
ART
47
ART
72
BPTT
21
CasCor
Cascade-Correlation . . . . . . . . . . . . . . . . . . . . . . . .
21
CHL
71
CPN
Counterpropagation . . . . . . . . . . . . . . . . . . . . . . . .
47
CR
Conditioned Response . . . . . . . . . . . . . . . . . . . . . . .
38
CSOM
. . . . . . . . . . . . . . . . .
65
CS
Conditioned Stimuli . . . . . . . . . . . . . . . . . . . . . . . .
38
DAC
DASH
72
DIN
Differentiator-Integrator Neuron
. . . . . . . . . . . . . . . . .
64
DNA
Deoxyribonucleic Acid
. . . . . . . . . . . . . . . . . . . . . .
26
DOF
Degree of Freedom
EBA
GCS
69
GDCS
69
GG
Growing Grid
70
GHSOM
. . . . . . . . . . .
71
GNG
71
GPL
GSOM
. . . . . . . .
46
70
. . . . . . . . . . . . . . . . . . . . . . . . 137
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . 130
. . . . . . . . . . . . . . . . . .
70
GTSOM
74
GWR
71
HiGS
69
HSOM
75
IA
Inteligncia Artificial
. . . . . . . . . . . . . . . . . . . . . . .
18
IC
Inteligncia Computacional . . . . . . . . . . . . . . . . . . . .
24
IGG
70
LTM
MADALINE
Multiple ADALINE . . . . . . . . . . . . . . . . . . . . . . . .
46
MSOM
. . . . . . . . . . . . . . . . . .
66
NG
Neural Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
PSOM
. . . . . . . . . . . . . . . . . . .
72
RNA
. . . . . . . . . . . . . . . . . . . . .
20
RSOM
65
RTRL
. . . . . . . . . . . . . . . . . .
21
SARDNET
66
SMC
Sensory-Motor Coordination
SOM
Self-Organizing Map
. . . . . . . . . . . . . . . . . . . . . . .
47
SOMSD
66
STM
Short-Term Memory . . . . . . . . . . . . . . . . . . . . . . . .
55
TDSOM
. . . . . . . . . . . . . . .
64
TKM
64
TNGS
30
TreeGCS
70
UR
Unconditioned Response
. . . . . . . . . . . . . . . . . . . . .
38
US
Unconditioned Stimuli
. . . . . . . . . . . . . . . . . . . . . .
38
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . 137
LISTA DE FIGURAS
Figura 1.1:
Figura 1.2:
19
20
Figura 2.1:
Figura 2.2:
28
33
Figura 3.1:
Figura 3.2:
Figura 3.3:
42
43
56
57
58
Figura 3.4:
Figura 3.5:
Figura 4.1:
Figura 4.2:
Figura 4.3:
Figura 4.4:
45
46
48
58
59
59
60
61
62
63
Figura 5.1:
76
Figura 5.2:
77
Figura 5.3:
78
Figura 5.4:
79
Figura 5.5:
Ajuste de pesos sinpticos na rede neural proposta. Os nmeros reais indicam os valores das sinapses de habituao de cada neurnio
da rede. esquerda, configurao da rede antes da atualizao sinptica. No centro, um padro z apresentado rede e o primeiro
e segundo neurnios vencedores, v e s, respectivamente, so selecionados. direita, os vetores de pesos wz do neurnio vencedor v e
da vizinhana topolgica Nv so ajustados em direo ao padro z,
as sinapses de habituao wh do neurnio vencedor v e da vizinhana
topolgica Nv so atualizadas em direo ao ponto de mximo habituao (valor zero) e as sinapses de habituao dos demais neurnios
da rede so modificadas rumo ao estado inicial de no habituao
(valor 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83
84
85
Insero, atualizao e remoo de conexes sinpticas na rede neural proposta. Os nmeros inteiros representam os contadores de idade
de cada conexo sinptica da rede. esquerda, configurao da rede
em um instante de tempo arbitrrio. No centro, uma nova conexo
adicionada na rede entre os neurnios vencedores v e s e o contador
de idade dessa conexo feito igual a zero. Ademais, as idades de
todas as conexes existentes entre o neurnio vencedor v e a sua vizinhana topolgica Nv , exceto neurnio s, so incrementadas em uma
unidade. direita, as conexes sinpticas que possuem uma idade
maior que o limiar imax so removidas da rede (e.g, imax = 50). . . .
86
esquerda a triangulao de Delaunay e direita o diagrama de Voronoi resultante para uma distribuio arbitrria de 20 pontos. . . . .
89
96
Figura 5.6:
Figura 5.7:
Figura 5.8:
Figura 5.9:
Figura 6.1:
Figura 6.2:
Figura 6.3:
Figura 6.4:
Figura 6.5:
97
97
98
99
Figura 6.6:
Figura 6.7:
Figura 6.8:
Figura 6.9:
104
104
105
106
106
107
109
110
Figura 6.19: Erro mdio quadrado de quantizao de cada rede neural auto-organizvel
na tarefa de segmentao temporal. A linha vertical sobre cada barra
representa a margem de erro, isto , o desvio padro para mais e para
menos em torno da mdia. . . . . . . . . . . . . . . . . . . . . . . . 110
Figura 6.20: Simulao de uma distribuio de dados em forma de 8 com rudo
de distribuio uniforme no intervalo [0.1, 0.1]. (a) Condio da
rede aps 10 pocas. (b) Espao de representao gerado pela unidade de memorizao . (c) Erro de quantizao da rede (EMQ=0.01872).
(d) Atividade na sada da rede na ltima poca. . . . . . . . . . . . . 111
Figura 6.21: Simulao de uma distribuio de dados em forma de 8 com rudo
de translao. (a) Condio da rede aps 10 pocas de aprendizagem.
(b) Espao de representao gerado pela unidade de memorizao .
(c) Erro de quantizao da rede (EMQ=0.01891). (d) Atividade na
sada da rede na ltima poca. . . . . . . . . . . . . . . . . . . . . . 112
Figura 6.22: Simulao de uma distribuio de dados em forma de 8 com rudo
de rotao. (a) Condio da rede aps 10 pocas de aprendizagem.
(b) Espao de representao gerado pela unidade de memorizao .
(c) Erro de quantizao da rede (EMQ=0.01803). (d) Atividade na
sada da rede na ltima poca. . . . . . . . . . . . . . . . . . . . . . 113
Figura 6.23: Ilustrao da seqncia temporal definida sobre uma circunferncia
de raio igual a 0.5 e centro igual a (0.5, 0.5). No total, so 50 amostras
uniformemente distribudas ao longo da circunferncia. O smbolo
representa o ponto inicial da seqncia e a seta indica o sentido de
rotao do fluxo: (a) horrio (t = {0..249; 500..749}) ou (b) antihorrio (t = {250..499; 750..999}). . . . . . . . . . . . . . . . . . . 114
Figura 6.24: Simulao de uma distribuio de dados em forma de circunferncia
com = 0.7, = 0.1, = 0.6, = 0.4, = 0.05, = 0.9, = 0.7.
(a) Condio da rede aps 10 pocas de aprendizagem. O smbolo
H indica os neurnios ativos durante o sentido de rotao horrio. O
smbolo N aponta os neurnios ativos durante o sentido de rotao
anti-horrio. (b) Espao de representao gerado pela unidade de
memorizao . Todos os 50 pontos so ambguos. Os smbolos H e
N representam os pontos iniciais da seqncia temporal nos sentidos
de rotao horrio e anti-horrio, respectivamente. . . . . . . . . . . 114
Figura 6.25: Identificao de dois agrupamentos distintos na distribuio de dados.
Os neurnios posicionados no eixo z = 1.0 mapeiam o sentido de
rotao horrio. Os neurnios alocados no eixo z = 1.0 mapeiam
o sentido de rotao anti-horrio. . . . . . . . . . . . . . . . . . . . . 115
Figura 6.26: (a) Neurnios inseridos entre a primeira e a quinta poca (rotao horria). (b) Atividade na sada da rede na quinta poca. (c) Neurnios
adicionados entre a quinta e a dcima poca (rotao anti-horria) (d)
Atividade na sada da rede na dcima poca. . . . . . . . . . . . . . . 116
Figura 6.27: Simulao de uma distribuio de dados em forma de circunferncia
com uma rede TKM de parmetro = 0.8. (a) Condio da grade
aps 10 pocas de aprendizagem. (b-c) Atividade na sada da rede na
quinta poca e na dcima poca, respectivamente. Note que todos os
neurnios esto ativos em ambos os sentidos de rotao. . . . . . . . 116
LISTA DE TABELAS
Tabela 2.1:
Tabela 2.2:
27
37
Tabela 3.1:
47
Tabela 4.1:
Tabela 4.2:
68
73
Tabela 5.1:
Tabela 5.2:
Tabela 5.3:
Tabela 5.4:
87
88
88
94
Tabela 6.1:
Tabela 6.2:
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
LISTA DE ALGORITMOS
46
49
87
RESUMO
O presente trabalho prope um novo modelo de rede neural artificial voltado a aplicaes robticas, em especial a tarefas de natureza espao-temporal e de horizonte infinito. Este modelo apresenta trs caractersticas que o tornam nico e que foram tomadas
como guia para a sua concepo: auto-organizao, representao temporal e aprendizado construtivo. O algoritmo de aprendizagem auto-organizada incorpora todos os
mecanismos que so bsicos para a auto-organizao: competio global, cooperao
local e auto-amplificao seletiva. A rede neural suprida com propriedades dinmicas
atravs de uma memria de curto prazo. A memria de curto prazo inserida na estrutura da rede por meio de integradores e diferenciadores, os quais so implementados na
camada de entrada da rede. Nesta abordagem existe uma evidente separao de papis: a
rede responsvel pela no-linearidade e a memria responsvel pelo tempo. A construo automtica da arquitetura da rede neural realizada de acordo com uma unidade
de habituao. A unidade de habituao regula o crescimento e a poda de neurnios. O
procedimento de incluso, adaptao e remoo de conexes sinpticas realizado conforme o mtodo de aprendizado hebbiano competitivo. Em muitos problemas prticos,
como os existentes na rea da robtica, a auto-organizao, a representao temporal e o
aprendizado construtivo so fatores imprescindveis para o sucesso da tarefa. A grande dificuldade e, ao mesmo tempo, a principal contribuio deste trabalho consiste em integrar
tais tecnologias em uma arquitetura de rede neural artificial de maneira eficiente. Estudos
de caso foram elaborados para validar e, principalmente, determinar as potencialidades
e as limitaes do modelo neural proposto. Os cenrios abrangeram tarefas simples de
classificao de padres e segmentao temporal. Os resultados preliminares obtidos demonstraram a eficincia do modelo neural proposto frente s arquiteturas conexionistas
existentes e foram considerados bastante satisfatrios com relao aos parmetros avaliados. No texto so apresentados, tambm, alguns aspectos tericos das cincias cognitivas,
os fundamentos de redes neurais artificiais, o detalhamento de uma ferramenta de simulao robtica, concluses, limitaes e possveis trabalhos futuros.
ABSTRACT
The present work proposes a new artificial neural network model suitable for robotic
applications, in special to spatiotemporal tasks and infinite horizon tasks. This model
has three characteristics which make it unique and are taken as means to guide its conception: self-organization, temporal representation and constructive learning. The algorithm of self-organizing learning incorporates all the mechanisms that are basic to the
self-organization: global competition, local cooperation and selective self-amplification.
The neural network is supplied with dynamic properties through a short-term memory.
The short-term memory is added in the network structure by means of integrators and
differentiators, which are implemented in the input layer of the network. In this approach
exists an evident separation of roles: the network is responsible for the non-linearity and
the memory is responsible for the time. The automatic construction of the neural network architecture is carried out taking into account habituation units. The habituation
unit regulates the growing and the pruning of neurons. The procedure of inclusion, adaptation and removal of synaptic connections is carried out in accordance with competitive
hebbian learning technique. In many practical problems, as the ones in the robotic area,
self-organization, temporal representation and constructive learning are essential factors
to the success of the task. The great difficulty and, at the same time, the main contribution
of this work consists in the integration of these technologies in a neural network architecture in an efficient way. Some case studies have been elaborated to validate and, mainly,
to determine the potentialities and the limitations of the proposed neural model. The
experiments comprised simple tasks of pattern classification and temporal segmentation.
Preliminary results have shown the good efficiency of the neural model compared to existing connectionist architectures and they have been considered sufficiently satisfactory
with regard to the evaluated parameters. This text also presents some theoretical aspects
of the cognitive science area, the fundamentals of artificial neural networks, the details of
a robotic simulation tool, the conclusions, limitations and possible future works.
18
INTRODUO
1.1
Contexto do trabalho
A Inteligncia Artificial a parte da Cincia da Computao cuja nfase est no estudo e desenvolvimento de entidades inteligentes, isto , sistemas de software ou hardware que exibem caractersticas
associadas inteligncia de uma forma geral, como compreenso da linguagem, aprendizado e raciocnio.
2
A palavra agente vem do latino agere, que significa fazer. No mbito da Inteligncia Artificial, o
significado do termo agente no partilhado por todos os investigadores da rea. No entanto, a maioria dos
pesquisadores define agente como uma entidade software ou hardware imersa em um ambiente e dotada
de sensores e efetuadores apropriados execuo das tarefas para as quais foi projetada.
19
sistir por um perodo de tempo prolongado, adaptar-se a mudanas, ser capaz de assumir
metas de outros, etc. (FRANKLIN; GRAESSER, 1997). No presente trabalho, trs aspectos so considerados imprescindveis no projeto de um agente de software inteligente:
autonomia, localidade e corporificao (PFEIFER; IIDA; BONGARD, ). O diagrama da Figura 1.1 mostra graficamente a trilogia3 do agente de software inteligente idealizado.
Autonomia
Agente
de software
Localidade
Corporificao
A palavra trilogia significa o estudo de trs entidades que se interrelacionam e formam um conjunto.
Por exemplo, trilogia pode ser um conjunto de trs obras literrias vinculadas entre si e que se unem em um
tema comum, ou simplesmente uma obra dividida em trs partes.
20
em geral (RUSSELL; NORVIG, 2004, p. 870912). Hoje em dia, a pesquisa em redes neurais artificiais4 (RNA) tem se apresentado como uma alternativa vivel para a soluo de
problemas complexos no campo da robtica.
As redes neurais artificiais representam um tema multidisciplinar com razes na neurocincia, matemtica, estatstica, fsica, cincia da computao e engenharia. A sua
habilidade para aprender a partir de exemplos as tornou ferramentas inestimveis em
aplicaes to diversas como modelagem, anlise de sries temporais, reconhecimento
de padres, processamento de sinais e controle (ENGEL, 2001). De forma resumida, uma
rede neural artificial compreende um sistema no-linear do tipo caixa-preta, pois fornece
uma estrutura com parmetros distribudos que podem ser ajustados atravs de algoritmos de treinamento eficientes. A classe de modelos que pode ser implementada por uma
rede neural depende essencialmente da arquitetura especfica da rede considerada (ENGEL, 2001). No presente trabalho, trs aspectos fundamentais so ponderados no projeto
de uma rede neural: auto-organizao, representao temporal e aprendizado construtivo. O diagrama da Figura 1.2 mostra graficamente a trilogia da rede neural idealizada.
Auto-organizao
Rede neural
artificial
Representao
Temporal
Aprendizado
Construtivo
As redes neurais artificiais so tambm referidas na literatura como neurocomputadores, redes conexionistas, processadores paralelamente distribudos, etc. (HAYKIN, 2001). Em todo o texto desta dissertao,
utiliza-se o termo redes neurais; ocasionalmente o termo redes neurais artificiais ou redes usado.
21
de uma rede neural: atravs de laos de realimentao (recorrncia) ou por meio de memrias de curto prazo. Em geral, a memria de curto prazo a pea-chave para o projeto
de redes neurais, pois converte informao temporal em espacial, possibilitando que redes
estticas convencionais sejam empregadas em tarefas que envolvam o processamento de
padres espao-temporais. A memria pode ser aplicada externa ou internamente rede e
comumente codificada por linha de atrasos de tempo, diferenciadores e/ou integradores.
O aprendizado construtivo uma tcnica que possibilita incluir e remover neurnios
na estrutura da rede neural5 . Os mtodos de aprendizagem construtiva se enquadram
em duas categorias principais (HAYKIN, 2001, p. 245): (i) pelo crescimento da rede, comeando com uma arquitetura de rede bastante simples e ento adicionando um novo
neurnio ou uma nova conexo sinptica quando a rede no for capaz de satisfazer as
especificaes de projeto; e (ii) pela poda da rede, iniciando com uma arquitetura de rede
de dimenso elevada e ento podando-a pela reduo ou eliminao de certos neurnios
ou pesos sinpticos de uma forma seletiva e ordenada.
Dentro destas concepes, a hiptese de trabalho a de que as trs caractersticas
supracitadas auto-organizao, representao temporal e aprendizado construtivo ,
quando combinadas adequadamente em uma rede neural artificial, viabilizam a resoluo de tarefas de horizonte infinito6 e de dimenso espao-temporal. Esta pesquisa, em
particular, se posiciona nesse contexto e se prope a definir um modelo de rede neural
auto-organizvel, temporal e construtivo voltado a aplicaes de robtica.
1.2
Motivao principal
As redes neurais com estrutura dinmica so tambm chamadas de redes ontognicas (FIESLER, 1994).
Tarefas de horizonte infinito so tambm referenciadas como tarefas contnuas (SUTTON; BARTO, 1998).
22
gls Cascade-Correlation) (FAHLMAN; LEBIERE, 1990), as redes da famlia ART (do ingls Adaptive Resonance Theory) (CARPENTER; GROSSBERG, 2003) e o GNG (do ingls
Growing Neural Gas) (FRITZKE, 1995b), modificam a estrutura da rede neural durante o
processo de treinamento at que uma soluo de projeto adequada seja apresentada. Contudo, a maioria das redes construtivas no apropriada para lidar com sinais variantes no
tempo (i.e., sinais no-estacionrios) e nem com aplicaes que necessitam de aprendizado constante e em tempo real (e.g., tarefas de horizonte infinito). As principais causas
para essas duas dificuldades so a ausncia de uma memria de curto prazo e o modo de
insero de novos neurnios que, em geral, baseado em interaes mltiplas de uma
constante de tempo predefinida pelo projetista da rede.
De acordo com o exposto, at onde se sabe, no h na literatura especializada da rea
algoritmos de aprendizado de natureza auto-organizvel que integrem a representao
temporal e o aprendizado construtivo. Dessa forma, existe uma carncia muito grande por
uma fundamentao terica, uma arquitetura, uma metodologia de criao e ferramentas
que estejam definidas e difundidas no meio acadmico. Isso implica um amplo campo de
pesquisas a ser explorado e neste hiato identificado que este trabalho de pesquisa retira
a sua motivao principal e pretende se desenvolver.
1.3
1.4
23
Um sistema auto-organizvel aquele que tende a melhorar espontaneamente seu desempenho ao longo do tempo enquanto persegue os seus objetivos. Esta formulao inclui
o caso especial no qual o objetivo alcanar um alto grau de organizao (ordem) de entidades relevantes a partir de um baixo nvel de organizao (caos). Em particular, em
uma rede neural artificial, muitas interaes locais originalmente aleatrias entre neurnios vizinhos de uma rede podem se fundir em estados de ordem global e, em ltima
instncia, levar a um comportamento coerente na forma de padres espaciais ou ritmos
temporais (HAYKIN, 2001, p. 430). Dessa forma, a estabilidade de uma rede neural est
fortemente relacionada com o seu poder de auto-organizao.
A representao temporal deve ser uma propriedade das mais relevantes de um sistema
inteligente, seja ele biolgico ou artificial, haja vista que muitas das tarefas desempenhadas por seres humanos e animais abrangem tomadas de deciso e respostas comportamentais a estmulos espao-temporais por exemplo, a viso, a fala e o controle motor. Atualmente, j existem teorias bem-desenvolvidas para resolver problemas dinmicos quando
o sistema sob estudo ou o mecanismo fsico subjacente de interesse linear. No entanto,
quando o sistema ou o mecanismo fsico for no-linear, a tarefa se torna mais difcil.
nestas situaes que as redes neurais artificiais tm o potencial de fornecer uma soluo
vivel e econmica sob o ponto de vista computacional (HAYKIN, 2001, p. 710).
Em uma rede neural artificial, a representao do conhecimento definida pelos valores assumidos pelos seus parmetros livres (i.e., pesos sinpticos e bias) (HAYKIN, 2001,
p. 51). Portanto, o conhecimento adquirido pela rede limitado pelo nmero existente de
conexes sinpticas. No obstante, a maioria das redes neurais tem uma arquitetura especfica e esttica que, alm de limitar o conhecimento que pode ser adquirido, dificulta a
resoluo de determinadas tarefas. Isso se deve ao fato de que, redes com dimenso muito
reduzida podem no apresentar flexibilidade suficiente para tratar alguns problemas, enquanto redes sobre-dimensionadas geralmente apresentam pouca capacidade de generalizao. A utilizao de procedimentos de validao cruzada (HAYKIN, 2001, p. 239-244)
ou tcnicas de regularizao (GIROSI; JONES; POGGIO, 1995) diminuem os problemas em
relao ao sobre-treinamento da rede e conseqentemente amenizam os efeitos das redes sobredimensionadas, mas estas ainda continuam a exigir um esforo computacional
excessivo e desnecessrio. Logo, algoritmos capazes de determinar automaticamente a
arquitetura da rede neural so extremamente desejveis.
A construo automtica da arquitetura de uma rede neural retira o nus do projetista
em ter que especificar a priori a conectividade e a topologia da rede, torna possvel resolver tarefas que exijam aprendizado em tempo real e oferece uma boa soluo para o
dilema da estabilidade-plasticidade (HAYKIN, 2001, p. 30). Uma forma muito estudada
de determinao automtica da dimenso de uma rede neural so os chamados mtodos de
poda, cuja idia iniciar com uma arquitetura de dimenso elevada e ir retirando unidades ou conexes at que se chegue a uma dimenso adequada. No entanto, estes mtodos
sempre trabalham com um esforo computacional adicional, exceto no final do processo
de poda, e alm disso, se existir mais de uma arquitetura adequada para a soluo, a rede
sempre vai convergir para a de maior dimenso. Alternativamente, mtodos construtivos
so uma tima opo por comearem com uma arquitetura de rede de dimenso reduzida
e irem adicionando unidades intermedirias e/ou conexes at que uma soluo adequada
seja apresentada. Hoje em dia, a pesquisa cientfica se concentra no desenvolvimento de
tcnicas hbridas de crescimento e poda da rede neural.
O presente trabalho se torna relevante ao disseminar um referencial terico-prtico
no meio acadmico, contribuindo para a formao de pesquisadores nesse contexto trans-
24
disciplinar. Alm disso, e mais importante, este trabalho de cunho exploratrio e eminentemente prtico contribui ao propor um modelo neural baseado no trinmio autoorganizao, representao temporal e aprendizado construtivo.
1.5
Contribuies relevantes
1.6
Estrutura da dissertao
Este captulo teve o objetivo de introduzir o leitor no contexto dos temas abordados
nesta dissertao atravs da exposio das motivaes, objetivos, justificativa e contribuies relevantes. O restante deste trabalho encontra-se organizado da seguinte forma:
Captulo 2: Fundamentos de Cincias Cognitivas.
Este captulo descreve os fundamentos terico-conceituais da rea das cincias cognitivas, bem como introduz os princpios de projeto de agentes de software. A discusso conduzida em duas direes distintas, conforme os princpios, modelos e
mtodos de investigao de cada uma das vertentes das cincias da cognio.
7
A Inteligncia Computacional (IC) rene uma srie de abordagens e tcnicas que tenta modelar a
inteligncia atravs da representao numrica, contnua do conhecimento (ENGEL, 2005).
25
26
Este captulo tem como objetivo contextualizar a rea das cincias cognitivas, apresentando os fundamentos terico-conceituais e os princpios de projeto de agentes de
software de cada uma das vertentes das cincias cognitivas. No se pretende exaurir este
tema, mas apenas incitar uma reflexo e apresentar algumas idias que sero teis ao desenvolvimento deste trabalho. Alguns livros-texto interessantes que abordam o assunto
de forma terica so (DUPUY, 1996) e (SANTOS, 2003). De maneira mais prtica, Pfeifer
e Scheier (2001) guiam o desenvolvimento de sistemas inteligentes.
2.1
Introduo
Nos primrdios da vida na Terra, toda a informao usada para resolver problemas
dos seres primitivos estava armazenada no DNA (acrnimo de cido desoxirribonuclico).
Com o aparecimento do sistema nervoso, e do crebro em especial, a memria dos eventos
ocorridos durante a existncia de um organismo passou a ser utilizada como base de
conhecimento para solucionar novos problemas. Nesse momento, houve um tremendo
salto evolutivo, pois o comportamento de um organismo poderia ser modificado durante a
sua vida sem alterao de seu cdigo gentico. Dessa forma, os seres vivos que possuam
crebro tinham uma ferramenta que incrementava e adaptava o seu conhecimento e seu
comportamento de uma forma muito mais dinmica (FLORES; SCHLER, ).
Desde ento, um conjunto de esforos interdisciplinares para melhor compreender o
funcionamento do sistema nervoso vem sendo realizado por especialistas de diferentes
reas das cincias da cognio (CONNORS; BEAR; PARADISO, 2002). Por exemplo, os psiclogos encaram o sistema nervoso como um objeto desconhecido mas capaz de produzir
comportamento e conscincia, e assim dedicam-se ao estudo de suas propriedades. J os
neurobilogos celulares o vem como um conjunto de clulas que se tocam atravs de
finos prolongamentos, formando trilhes de complexos circuitos intercomunicantes. Por
outro lado, eletrofisiologistas estudam apenas os sinais eltricos produzidos pelas clulas nervosas. Alternativamente, neuroqumicos se concentram nas reaes qumicas que
ocorrem entre as molculas existentes dentro e fora das clulas nervosas. Na viso dos
computlogos, o sistema nervoso concebido como uma fonte inesgotvel de inspirao
para a soluo dos mais variados problemas, e assim do nfase ao estudo dos princpios
e mecanismos que o regem para aplic-los construo de sistemas computacionais.
Logo, as cincias cognitivas constituem em um amplo programa de pesquisa que tem
por objeto a inteligncia, desde sua estrutura formal at seu substrato biolgico. A disciplina tem sua origem, possivelmente, no movimento ciberntico ocorrido por volta de
1950, em uma tentativa de edificar uma cincia geral sobre o funcionamento da mente. As
cincias cognitivas so caracterizadas por uma variedade de abordagens tericas, mode-
27
los e mtodos de investigao. Na literatura, comumente agrupa-se este arsenal tericoconceitual em abordagens tradicionais e abordagens contemporneas, de acordo com
seus princpios objetivistas e no objetivistas, respectivamente. A Tabela 2.1 apresenta
de forma esquemtica um paralelo entre estas duas abordagens.
Tabela 2.1: Abordagens cognitivas para o estudo da inteligncia
Classe
Paradigma
Descrio
Tradicional
(objetividade)
Objetivismo
Conexionismo
Contempornea
(no-objetividade)
Teoria Ecolgica
Teoria da Autopoiese
Teoria da Enao
2.2
As abordagens baseadas nos princpios da objetividade, referidas doravante como tradicionais, representam o paradigma dominante das cincias cognitivas e se enquadram
basicamente em dois programas de pesquisa: o cognitivismo e o conexionismo.
Em sntese, tanto a abordagem cognitivista quanto a conexionista se apiam na viso
de um mundo existente, com caractersticas determinadas e independentes do observador.
O observador tem um papel completamente passivo no processo de perceber o mundo
ao seu redor e, portanto, o saber e conhecer humanos so vistos como representaes
ou modelos internos da realidade externa. Como conseqncia, ambos os paradigmas
caminham em direo ao representacionismo do mundo externo e ao processamento de
estmulos do ambiente, seja na forma simblica quanto sub-simblica.
2.2.1
Cognitivismo
O cognitivismo tem sua origem na estrutura funcional do consagrado modelo da mquina de Turing (1936). Por isto, o conhecimento representado por um conjunto de smbolos e regras que tm uma correspondncia direta e explcita com os objetos do mundo
real. A cognio ou aprendizagem a manipulao dos smbolos conforme suas propriedades, relacionamentos e regras aplicveis. O comportamento inteligente obtido atravs
de processos que manipulam satisfatoriamente os smbolos e as regras.
28
2.2.2
Conexionismo
No mbito da Inteligncia Artificial, um agente de software cognitivista ou conexionista visto como um sistema seqencial composto por entrada, processamento e sada
(vide Figura 2.1). Inicialmente, dados oriundos do ambiente so obtidos atravs de sensores e, em um processo compreendido como a percepo, mapeados para representaes
internas. Em um segundo momento, h um processamento central efetuado sobre esta representao, que pode ser realizado de inmeras formas e compreender inmeras etapas.
Por fim, o sistema gera uma resposta ao ambiente por intermdio de efetuadores.
Agente tradicional
Entrada
Sensores
Processamento
central
Sada
Efetuadores
29
como categorizar os objetos presentes no meio, haja vista que um objeto pode conduzir a inmeros padres de entrada diferentes dependendo do ngulo de viso
relativo ao objeto, de condies de luminosidade do ambiente, de rudo associado a
sensores e efetuadores, e assim por diante. Esse problema j foi estudado por diversos pesquisadores (e.g., Rodney Brooks) e denotado por problema da localidade
e da corporificao (do ingls the embodiment and situatedness problem).
A inquietude demonstrada por parte da comunidade cientfica com relao s questes
levantadas propiciou o surgimento de abordagens alternativas para a compreenso da cognio e, conseqentemente, da percepo e da ao (PFEIFER; SCHEIER, 1994; MLLER,
1999; HURLEY, 2001). A prxima seo discorre sobre cada uma destas abordagens.
2.3
Teoria Ecolgica
A Teoria Ecolgica, elaborada por James Gibson em 1979, estabelece um marco dentro da histria evolutiva das pesquisas cientficas a respeito da cognio. Em primeiro
lugar, porque pioneiramente enfatiza a co-dependncia entre a percepo e a ao. Em
segundo lugar, porque atribui um papel ativo para a ao. Na concepo de Gibson, a
percepo no vista como um estado mental isolado do mundo fsico, pelo contrrio, o
significado da percepo encontra-se na interao contnua entre sujeito e ambiente.
De acordo com Gibson, muitas questes sobre como a informao visual construda internamente pelo sujeito poderiam ser substitudas por questes que tratam das
fontes de informao no ambiente, determinantes para o comportamento do sujeito. O
conceito de informao reconcilia dois aspectos da relao sujeito-ambiente: os inseparveis conceitos de invariantes e affordances. A noo de invariantes baseada na idia de
que padres de energia que estimulam os sentidos contm informaes que especificam
o meio ambiente. O conceito de affordances faz referncia ao sujeito, expressando as
possibilidades de ao oferecidas pelo meio ambiente. Para maiores informaes sobre a
Teoria Ecolgica de Gibson, consulte (OLIVEIRA, 2005).
2.3.2
Teoria da Autopoiese
30
relaes e interaes como totalidade. O sujeito visto como um sistema dinmico determinado estruturalmente. Na interao contnua com o ambiente, so modificadas as
suas estruturas internas a fim de se manter em congruncia circunstancial com o meio. E
justamente a conservao dessa congruncia que sustenta a existncia do ser.
Maturana Romecin e Mpodozis (1997) analisaram um experimento descrito por Roger
Sperry a respeito da rotao dos olhos de anfbios. Nesse experimento foi demonstrado
que os animais recuperam a viso mas, no entanto, apresentam um variao na conduta de captura de presas com um desvio de ngulo igual ao do giro efetuado nos olhos.
Com base nisso, os autores argumentaram a respeito do fenmeno da percepo, pois ao
modificar a estrutura do organismo altera-se, por conseguinte, a sua percepo.
2.3.3
Teoria da Enao
A Teoria Psicolgica Construtivista, proposta por Piaget (1979), define o conhecimento como fruto de aes mtuas indissociveis entre sujeito e meio. Nesta concepo,
no h nfase nas experincias adquiridas (empirismo) e nem na bagagem hereditria
(inatismo), mas sim na relao e interao entre esses dois elementos.
O desenvolvimento do conhecimento construtivista de Piaget tem base nos mecanismos conhecidos como assimilao e acomodao. A assimilao constitui em uma tentativa de integrar as novas experincias do sujeito em suas estruturas cognitivas previamente
construdas. J a acomodao consiste na modificao progressiva de suas estruturas cognitivas, uma vez que a organizao do sujeito no capaz de lidar com uma determinada
situao que o meio impe. Portanto, o sujeito est a todo instante realizando assimilaes" e acomodaes", na busca por um equilbrio cognitivo.
Esta concepo construtivista da inteligncia foi reconhecidamente trazida ao campo
cientfico da Inteligncia Artificial no trabalho de Drescher (DRESCHER, 1991). A IA
Construtivista, como denominada na literatura, constitui em um ramo alternativo dentro
da IA Simblica, e, em linhas gerais, engloba todo os trabalhos desta cincia que fazem
referncia Teoria Psicolgica Construtivista. Recentemente, vrios esforos foram realizados na concepo de agentes de software segundo este paradigma, como, por exemplo,
em Wazlawick (1993), Muoz (1999) e Perotto (2004).
2.3.5
Nas ltimas dcadas, experincias cientficas em seres humanos e animais identificaram certas reas do sistema nervoso que so especializadas em determinas funes
31
mentais (LENT, 2002, p .24). Mais especificamente, as pesquisas realizadas por Gerald
Edelman demonstraram que a cognio resultado da atividade coordenada de grupos
neurais dispostos em diferentes regies cerebrais (EDELMAN, 1987, 1989, 1995, 2004).
Foram descobertos grupos neurais sensveis a cores, ao movimento de estmulos luminosos, tons sonoros, cheiros, ritmos respiratrios e uma lista inumervel de funes.
Edelman engajou-se na pesquisa da estrutura e da funo cerebral, propondo em 1978
uma teoria cientfica do crebro (EDELMAN, 1978). Esta teoria, denominada Teoria da
Seleo de Grupos Neurais (ou, abreviadamente, Darwinismo Neural), um modelo selecionista sobre a organizao, o desenvolvimento e o funcionamento do crebro. A idia
que o crebro classifica, categoriza e adapta-se ao mundo atravs de um processo de seleo entre grupos neurais. Este processo anlogo quele que opera na seleo natural
de seres vivos, mas seu substrato e mecanismo so evidentemente diferentes.
Um grupo neural compreende uma coleo de neurnios intimamente ligados, da
ordem de centenas a milhares, os quais disparam concomitantemente a determinados estmulos. De modo geral, as conexes sinpticas entre os neurnios de um grupo neural so
constitudas filogeneticamente, ou seja, so herdadas geneticamente (transgeracionais).
H, contudo, um processo de seleo darwiniana que d o ajuste fino (microscpico) por
meio da eliminao de neurnios e sinapses. Isto assegura uma variabilidade ontogentica
necessria para lidar com a imprevisibilidade do ambiente.
O sistema nervoso possui bilhes de grupos neurais, cada qual com sua pequenssima
especialidade. Por exemplo, um grupo neural para realizar movimentos com o brao para
a esquerda, outro para a direita, um para reconhecer objetos da cor vermelha, outro para
reconhecer formas triangulares, e assim por diante. Reeke e Edelman (1984, p .186) sugerem que exista um equilbrio adequado entre a especificidade e generalidade na funo de
um grupo neural, de modo que variados grupos neurais possam responder razoavelmente
bem a qualquer estmulo. Esse fenmeno, denominado degenerao, assegura que todo e
qualquer estmulo necessariamente reconhecido por pelo menos um grupo neural.
Existe um nmero macio de circuitos fechados entre os neurnios de cada grupo neural. Por essa razo, o estado de um neurnio dependente do estado de todos os demais
neurnios com os quais est conectado, direta ou indiretamente. Devido a essa dependncia circular entre os neurnios, o comportamento de um grupo neural altamente nolinear. Atravs das experincias vividas por cada ser vivo, os grupos neurais so seletivamente fortalecidos ou enfraquecidos, de acordo com a quantidade de estmulos recebidos
ou, mais simplesmente, conforme o seu uso. Este processo modulado pela atribuio, de
diferentes valores3 , aos estmulos recebidos. medida que o crebro se desenvolve, ele
abandona certos circuitos inteis em proveito de conexes repetidas com sucesso, curtidas
e recurtidas por uma aprendizagem bem sucedida e recompensada (EDELMAN, 1995).
Os grupos neurais competem uns com os outros, a fim de serem selecionados e se
tornarem parte integrante de um circuito funcional. Atravs da amplificao seletiva,
uma variedade de circuitos funcionais so epigeneticamente" esculpidos, isto , atravs
da combinao de influncias genticas e ambientais, o que acaba por originar mapas
neurais locais. Um mapa neural pode ser definido como um conjunto interconectado
de grupos neurais com funcionalidades semelhantes. O sistema nervoso possui inmeros
mapas neurais, cada qual com uma determinada especialidade e localizao. Por exemplo,
um mapa neural da viso especfico para reconhecer cores4 , que composto por trs
3
Para maiores detalhes sobre os sistemas de valores presentes nos seres vivos, consulte a Seo 2.3.6.5.
O termo reconhecer cores" conota que a ativao de um determinado grupo neural proporciona, no
observador, uma sensao que ele descreve, por exemplo, como azul. Dessa maneira, a cor no uma carac4
32
terstica intrnseca do objeto, mas sim uma descrio da interao entre o observador e o objeto observado.
33
2.3.6
Interpretao
Sensrio-motora
Sada
Efetuadores
De acordo com Pfeifer e Scheier (2001, p. 304-306), o projeto de um agente de software sempre envolve a definio de trs componentes que so rigorosamente interconectados e mutuamente interdependentes:
1. Fixao de um nicho ecolgico onde o agente ir atuar. A natureza de ambientes
que um agente pode habitar varia significativamente. Nenhum agente pode adaptarse, fisicamente e cognitivamente, para lidar com todas as variaes possveis.
2. Estabelecimento de comportamentos desejados ou tarefas a serem cumpridas;
3. Determinao do agente propriamente dito. A concretizao de um agente deve priorizar trs aspectos principais: autonomia, localidade e corporificao. Apesar de
certa objeo por alguns pesquisadores da rea, existe consenso da maioria de que a
corporificao no necessariamente dada pela materialidade, como a apresentada
em animais ou robs fsicos, mas por uma relao dinmica com o ambiente (FLORIAN, 2003). Assim, a pesquisa em inteligncia artificial pode ser realizada com
ambientes de simulao genuinamente computacionais5 .
5
34
2.3.6.2
Um dos modelos mais adequados sobre a evoluo da inteligncia animal foi desenvolvido por Daniel Dennett (1996). Segundo ele, quanto mais precisa for a informao e
quanto maior for a regio de onde uma criatura coleta informao, mais provvel ser o
seu sucesso. No incio da evoluo das espcies, apareceu o olfato que uma forma de
obter informao do ambiente prximo. Posteriormente, surgiram a audio e a viso permitindo a aquisio de informao de alta qualidade a distncias maiores. A percepo de
eventos a grande distncia no espao contribui, eventualmente, para a predio de eventos
a grandes distncias no tempo. Por exemplo, a viso permite presa antever o ataque de
um predador. Dennett (1996) classificou os seres vivos, de acordo com os seus processos de manipulao da informao, na seguinte hierarquia de complexidade: darwiniana,
skinneriana, popperiana e gregoriana. Recentemente, Joo Paulo Schler (2002) realizou
uma recontextualizao do domnio das criaturas de Dennett para o domnio de software.
No entanto, conforme as abordagens contemporneas da cognio, no basta um
agente de software possuir variados mecanismos de obteno de informao, necessrio incorporar redundncia nos dispositivos sensoriais. Em outras palavras, os sensores
devem estar posicionados no agente de tal forma que exista sobreposio espacial nas
informaes adquiridas. A redundncia promove correlaes e associaes entre as informaes obtidas por diferentes modalidades sensitivas. Estas correlaes ajudam o agente
a reduzir drasticamente a incerteza do ambiente e a predizer eventos (PFEIFER; SCHEIER,
2001, p. 446455). Os sistemas visual e ttil, por exemplo, fornecem informao espacial do ambiente, apesar de se basearem em diferentes processos fsicos. Duplicar meramente os componentes sensoriais no conduz a uma redundncia til, pois mesmo que
um agente possua dez cmeras de vdeo de alta definio no conseguir operar em um
ambiente completamente escuro, diferentemente de um agente que tenha um sistema ttil
em adio a um sistema visual. Alm da redundncia, deve existir um equilbrio da complexidade do agente (sistemas sensrio, motor e de controle) com a complexidade de seu
ambiente de tarefa. Um sistema de controle extremamente complexo desnecessrio se o
agente ou o ambiente so extremamente simples (PFEIFER; SCHEIER, 2001, p. 455463).
Um agente com um sistema de controle demasiadamente elaborado, via de regra, tem problemas no aprendizado em decorrncia do excesso de ajustes do modelo. Por outro lado,
um agente com um sistema de controle muito simples pode ter dificuldades em adaptarse s circunstncias ambientais. Em suma, a fsica da interao agente-ambiente e as
restries impostas pelo nicho ecolgico devem ser exploradas (PFEIFER; SCHEIER, 2001,
p. 435445), tornando econmico o projeto do agente sob o ponto de vista computacional.
2.3.6.3
35
em subfuncionalidades diferentes que, por sua vez, podem ser segregadas novamente em
mdulos e submdulos (e.g., deteco de parede, mover-se rente a uma parede). A noo
de hierarquias implica um processo centralizado e seqencial e, portanto, no tolerante
a falhas: quando um mdulo removido ou deixa de funcionar, a operao do sistema
como um todo fica afetada. Isso no reflete o que realmente ocorre em sistemas naturais,
alm de gerar inmeros problemas de projeto (PFEIFER; SCHEIER, 2001).
Um mecanismo que vem despontando como uma nova opo para essa problemtica assumir um nmero elevado de processos heterogneos, paralelos e fracamente
acoplados que so conectados ao aparato sensrio-motor do agente (PFEIFER; SCHEIER,
2001, p. 327376). Estes processos no necessitam de um supervisor; ou seja, o controle
descentralizado e distribudo. A arquitetura de controle pode ser construda de forma
gradual, com a adio de novos processos, assim como acontece na evoluo biolgica.
Alm disso, a unio de todos os processos promove a emergncia de novos comportamentos, os quais no foram previstos no projeto. Por exemplo, o ato de seguir paredes
compreendido como a unio de processos bsicos que, juntos, na interao com o meio
ambiente, produzem o comportamento desejado.
A arquitetura de subsuno foi originalmente proposta por Rodney Brooks (1986).
Nessa arquitetura, os comportamentos so organizados em nveis de acordo com uma
hierarquia de subordinao. Os nveis inferiores so prioritrios em relao aos comportamentos dos nveis superiores, dado que as aes de nveis mais altos representam
comportamentos mais abstratos e elaborados. Como vrios comportamentos podem ser
acionados em paralelo, um mecanismo de controle seleciona, entre os diferentes comportamentos possveis, aquele que considerado timo em cada momento. Um nmero
considervel de robs foi construdo utilizando variaes desta arquitetura, dentre eles:
Myrmix, Ghengis, Herbert e Hannibal (PFEIFER; SCHEIER, 2001, p. 199225).
Dimitrios Lambrinos e Christian Scheier (1995) desenvolveram uma arquitetura inspirada nos veculos de Braitenberg. O esquema bsico desta arquitetura consiste em associar diretamente os sensores do agente com processos internos (e.g., andar-para-frente).
Esta associao pode ser ponderada por algum valor, a fim de realizar uma modulao da
importncia de um sensor sobre um determinado processo. Os processos internos, por sua
vez, podem estar conectados a outros processos internos bem como a processos motores
(e.g., motor-esquerdo, motor-direito). O comportamento a ser executado pelo agente
simplesmente obtido pelo somatrio linear da sada dos processos motores.
2.3.6.4
36
agente a fazer associaes entre diferentes modalidades sensitivas (BOEKHORST; LUNGARELLA; PFEIFER, 2003). A coordenao sensrio-motora possibilita, ainda, resolver um
dos maiores desafios dos roboticistas: a categorizao de objetos fsicos (SCHEIER; PFEIFER, 1995; SCHEIER; LAMBRINOS, 1996; LAMBRINOS; SCHEIER, 1996).
Qualquer agente de software deve ser capaz de realizar distines entre diferentes tipos de objetos; ou seja, deve ter a competncia de categorizar os objetos fsicos presentes
no meio. Realizar distines um processo bastante rotineiro e natural para todos os seres
vivos. Contudo, ainda constitui em uma rdua tarefa para os robs. Uma das principais
razes para essa problemtica que um objeto pode conduzir a inmeros padres diferentes e ambguos, dependendo do ngulo de viso do agente, de condies de luminosidade
do ambiente, de rudo associado a sensores e efetuadores, e assim por diante.
Tradicionalmente, o problema do reconhecimento de objetos tem sido investigado
pelo emprego de modelos clssicos da Inteligncia Artificial, onde a categorizao definida em termos de um mapeamento de estmulos sensoriais em representaes internas
(e.g., Kruschke, Jan. 1992). Em muitas arquiteturas de redes neurais artificiais empregase uma camada de entrada, para codificar as caractersticas dos objetos, e uma camada de
sada, que representa as categorias propriamente ditas. Tipicamente, atravs de mtodos
de aprendizagem supervisionada, o objetivo aprender uma associao entre ativaes na
camada de entrada e ativaes correspondentes na camada de sada.
Clark e Thornton (1997) introduziram o conceito de problemas do tipo 2 para denotar
conjuntos de dados para os quais o mapeamento da entrada para a sada no pode ser extrado por algoritmos de aprendizagem ou procedimentos estatsticos. De forma anloga,
sempre que o mapeamento pode ser aprendido diretamente a partir de dados de entrada,
tem-se um problema do tipo 1. Freqentemente, problemas do tipo 2 podem ser transformados em problemas do tipo 1. Contudo, a transformao apropriada no conhecida
a priori. Ento, a questo principal no aprendizado de categorias pode ser resumida em
como realizar essa converso. Uma estratgia eficiente que pode ser empregada para resolver isto explorar a coordenao sensrio-motora (NOLFI; PARISI, 1999).
Pfeifer e Scheier (1997) propuseram uma srie de modelos de agentes de software para
explorar a coordenao sensrio-motora. No modelo SMC I, o agente aprende a discernir entre objetos circundando em torno deles. Este comportamento exploratrio permite
diferenciar os objetos por meio de invarincias que so identificadas (e.g., diferena na
velocidade angular). No modelo SMC II, a categorizao realizada por uma associao reentrante entre as modalidades sensitivas da viso e do tato. Esses dois trabalhos
so amparados pelo estudo conduzido por Bushnell e Boudreau (1993) sobre o desenvolvimento de capacidades motoras em crianas recm nascidas. Diante dos resultados
obtidos, os autores sugerem que a aprendizagem drasticamente simplificada quando as
crianas manipulam objetos em frente de suas faces a uma distncia fixa.
2.3.6.5
Princpio da aprendizagem
37
Paradigma
Descrio
Regra(s)
No associativo
Habituao
Regra de Stanley,
Regra de Wang & Arbib
Sensibilizao
Associativo
Supervisionado
No-supervisionado
Auto-supervisionado
regra Delta,
regra de retropropagao de erros (backpropagation),
arquitetura Outstar
regra de Hebb,
regra de Kohonen
Q-learning,
variaes de Hebb
38
experimentais, pelo russo Ivan Pavlov. O cientista ensinou ces a salivar quando ouviam
o som de campainha, ao parear o estmulo neutro da campainha a uma recompensa alimentar. A idia que os ces, ao sentir a presena de um alimento por meio do olfato
ou da viso, comeam a salivar. O experimento consistiu em tocar uma sineta enquanto
os ces eram alimentados. Mais tarde, aps algumas repeties, Pavlov constatou que
em pouco tempo os ces respondiam com salivao ao soar da campainha, que passou a
ser um estmulo condicionado e a provocar o reflexo da salivao mesmo sem a presena
da comida. Ao descrever esta experincia, Pavlov denominou a salivao sob a influncia do alimento de reflexo no-condicionado (UR); o prprio alimento de estmulo nocondicionado (US); a salivao sob a influncia da campainha de reflexo condicionado
(CR); e a campainha de estmulo condicionado (CS). Pavlov chamou esta modalidade
de aprendizagem de reflexo condicionado. No contexto de tcnicas de aprendizagem de
mquina, este paradigma se enquadra na definio do aprendizado supervisionado.
A base do condicionamento instrumental (ou operante), designado pelo psiclogo
Burrhus Frederic Skinner, a associao entre o estmulo e o comportamento do animal.
A resposta est relacionada probabilidade de ocorrncia de uma recompensa ou punio.
A pesquisa desenvolvida por Thorndike demonstrou que os animais aprendem conforme
as conseqncias de suas aes; ou seja, todo comportamento animal influenciado por
seus efeitos, sejam eles benficos ou malficos. No experimento realizado por Thorndike,
um co (ou um gato) deve aprender uma seqncia de aes especficas para escapar de
uma caixa (puzzle box"). Assim, o animal inicia timidamente emitindo uma variedade
de respostas que esto no seu repertrio natural de comportamentos. O treinador pode
ento selecionar uma resposta para reforar. Devido ao reforo, esta resposta emitida
com maior freqncia, enquanto outras so paulatinamente eliminadas. No mbito da
comunidade de aprendizagem de mquina, este modelo de aprendizagem empregado de
modo estritamente tcnico, compreendendo o aprendizado por reforo e o aprendizado
baseado em valor. Apesar de similaridades entre estas duas propostas, o presente trabalho
foca na abordagem baseada em valor, por ser mais adequada e compatvel com os ideais
de agentes de software situados e corporificados (PFEIFER; SCHEIER, 2001, p. 467501).
As pesquisas realizadas por neurocientistas revelam que o processo de aprendizagem
animal modulado pela atribuio, de diferentes valores, aos estmulos recebidos (EDELMAN, 1995). Os estmulos que chegam ao crebro, tanto externos quanto internos, so
tratados com importncia distinta. Por exemplo, a sensao causada pela destruio da
pele de um animal recebe um valor bem maior do que uma simples presso na mesma
rea. De forma anloga, estmulos externos que identificam alimentos recebem um valor
maior do que um equivalente no alimentar. Acredita-se que este processo realizado por
neuromoduladores presentes em regies cerebrais especializadas, denominadas por sistemas de valores (EDELMAN, 1995). Cada espcie tem o seu sistema de valores (tambm
denominado de centro hedonista ou sistema homeosttico), que inclui informaes do seu
corpo e informaes do ambiente. Em sntese, o sistema de valores identifica os sinais
mais salientes e guia de certa forma o comportamento animal.
As tcnicas de aprendizagem baseada em valor buscam inspirao nos sistemas de
valores dos seres vivos. Basicamente, estas tcnicas se enquadram em duas categorias
principais: explcita e implcita. Em ambas as categorias, a idia que foras motivacionais intrnsecas influenciam, direta ou indiretamente, o comportamento do agente de
software. As foras motivacionais podem ser compreendidas como influncias, sejam externas ou internas, que codificam o que valioso" para o agente. Isto faz com que o
agente prefira um determinado comportamento em detrimento de outro.
39
(2.1)
onde wij o peso da conexo sinptica entre o neurnio pr-sinptico j e o neurnio pssinptico i, o parmetro da taxa de aprendizagem, e ai e aj representam as ativaes
dos neurnios ps e pr-sinptico, respectivamente. A Equao 2.2 ilustra a idia bsica
subjacente aprendizagem explcita baseada em valor. Matematicamente, adiciona-se um
termo multiplicativo regra de Hebb, tal que:
wij = V ai aj ,
(2.2)
A teoria de Hebb baseada na observao que, em sistemas biolgicos, quando um neurnio contribui
para o disparo de outro neurnio, a conexo entre eles reforada (HEBB, 1949).
40
o melhor paradigma a ser utilizado em agentes de software. Contudo, pode-se enumerar uma srie de caractersticas desejveis em um algoritmo de aprendizagem: robustez
e tolerncia a rudos; convergncia rpida; tratabilidade computacional; adaptatividade a
eventuais mudanas ambientais; operao em modo seqencial (on-line); e dependncia
de informaes que possam apenas ser extradas de sensores do agente, e no aquelas
fornecidas por um projetista ou por um observador externo.
2.4
Consideraes do captulo
41
Este captulo apresenta alguns dos principais conceitos relacionados a redes neurais
artificiais, com o intuito de servir de referncia ao leitor para a nomenclatura no restante
do texto. Inicialmente, discute-se brevemente o funcionamento do sistema nervoso, em
especial do neurnio biolgico. Em seguida, faz-se uma rpida anlise sobre os componentes bsicos de um neurnio artificial, em particular do neurnio de McCulloch e Pitts,
e caracteriza-se uma rede neural artificial genrica, enfatizando o seu funcionamento, a
sua topologia e o seu processo de aprendizado. Logo aps, apresenta-se a rede neural auto-organizvel baseada em grades proposta por Teuvo Kohonen, discute-se sobre
determinadas mtricas de convergncia e estabilidade da rede e examina-se algumas propriedades do mapa de caractersticas. Por fim, discorre-se sobre os principais benefcios
e aplicaes das redes neurais artificiais. As informaes aqui contidas foram extradas principalmente dos seguintes livros-texto: (HAYKIN, 2001; KOVCS, 2002; CONNORS;
BEAR; PARADISO, 2002; LENT, 2002; KOHONEN, 2001). Em (KASKI; KANGAS; KOHONEN,
1998) e (OJA; KASKI; KOHONEN, 2002) so apresentadas 5435 referncias de artigos sobre
o mapa auto-organizvel de Kohonen, publicados entre os anos de 1981 e 2002.
3.1
Introduo
42
tanto, alguns dos principais conceitos bsicos que permitem a compreenso de sua estrutura e funcionamento geral permanecem vlidos at hoje. Por esse motivo, neste captulo
no se discute de forma exaustiva todo o ferramental terico-conceitual existente mas,
pelo contrrio, apenas apresenta-se o essencial para a compreenso do presente trabalho.
3.2
O neurnio biolgico
O sistema nervoso dos seres vivos constitudo por um emaranhado de clulas que
se interconectam de forma especfica e precisa, formando circuitos neurais funcionais.
Basicamente, h dois tipos de clulas presentes no sistema nervoso: clula nervosa (ou
neurnio) e clula glial (ou glicito) (CONNORS; BEAR; PARADISO, 2002). O neurnio a
unidade sinalizadora do sistema nervoso, cuja morfologia est adaptada para funes de
transmisso e processamento de sinais. J os glicitos desempenham funes de infraestrutura: nutrem, do sustentao mecnica, controlam o metabolismo dos neurnios,
ajudam a construir o tecido nervoso durante o desenvolvimento e funcionam como clulas
imunitrias.
De acordo com Lent (2002, p. 14), classicamente considera-se o neurnio como a
unidade morfofuncional fundamental do sistema nervoso e o glicito como a unidade de
apoio. Por essa razo, nos ltimos anos a pesquisa na rea da neurocincia se concentrou
na investigao do papel dos neurnios no processamento de informao. Apesar da
localizao e da funo dos neurnios variarem, em geral todos compartilham a mesma
estrutura bsica. De maneira extremamente simplificada, um neurnio formado por:
um corpo celular ou soma que fornece suporte metablico e contm o ncleo da
clula, onde est armazenado o cdigo gentico;
diversos dendritos que consistem em variados prolongamentos prximo ao corpo
celular, em forma de ramificaes, e funcionam como receptores de sinais de outros
neurnios; e
um axnio que compreende um prolongamento fino e longo, atravs do qual sinais so enviados para outros neurnios. Esse prolongamento ramificado na sua
extremidade e forma uma arborizao terminal.
A Figura 3.1 mostra, de forma esquemtica, a estrutura de um neurnio biolgico.
Sinapse
Dendrito
Corpo celular
Ncleo
Axnio
43
3.3
O neurnio artificial
O primeiro modelo de neurnio foi proposto por Warren McCulloch e Walter Pitts em
1943, em uma tentativa de formalizar o conhecimento da poca sobre o funcionamento
do neurnio biolgico (KOVCS, 2002, p. 2738). A Figura 3.2 apresenta um diagrama de
blocos do neurnio artificial de McCulloch e Pitts, denominado unidade de limiar linear.
x1(t)
w1
x1(t)w1
x2(t)
w2
x2(t)w2
xn(t)
wn
xn(t)wn
.
.
.
.
.
.
.
.
.
f(.)
y(t)
44
n
X
xj (t)wij
(3.1)
j=1
onde wij R o peso atribudo quela entrada do neurnio i cuja origem a atividade
xj (t) do neurnio j, e t Z indica o tempo, sendo este um valor discreto. O peso simula
a sinapse entre dois neurnios e quando estes no esto conectados assume o valor zero.
Assim como no caso biolgico, as sinapses podem ser tanto excitatrias como inibitrias.
Uma sinapse excitatria tem o seu peso positivo, wij > 0, e uma sinapse inibitria tem o
seu peso negativo, wij < 0. A atividade do neurnio i no instante t dada por f (i (t)).
A funo f , chamada funo de ativao ou de transferncia, adotada neste modelo a
funo degrau com limiar de disparo dado por :
f (x) =
0 se x
1 se x >
(3.2)
45
1.0
1.0
0.5
0.5
0.5
0.0
-0.5
-1.0
-3
f(x)
1.0
f(x)
f(x)
0.0
-0.5
-0.5
-2
-1
-1.0
-3
0.0
-2
-1
-1.0
-3
-2
-1
3.4
Uma vez definido um neurnio, possvel estudar as propriedades de redes de neurnios interconectados, as chamadas redes neurais. Resumidamente, as principais caractersticas de uma rede neural artificial so comentadas a seguir, conforme exposto por Haykin (2001). Do ponto de vista do fluxo de informao, uma rede pode conter trs tipos de
neurnios: de entrada, anlogos aos neurnios sensoriais dos seres vivos; de sada, anlogos aos neurnios motores; e internos, anlogos aos neurnios associativos. Do ponto
de vista funcional, uma rede pode ser homognea, se todos os neurnios se comportarem
da mesma forma, ou, no caso contrrio, heterognea. Quanto a conectividade, uma rede
pode ser fracamente (ou parcialmente) conectada e completamente conectada. Quanto a
topologia da interligao entre neurnios, uma rede pode ser de alimentao direta ou
acclica (do ingls feed-forward) e recorrente ou cclica (do ingls feedback). Uma rede
de alimentao direta representa uma funo de sua entrada atual; assim, ela no tem
nenhum estado interno alm dos pesos propriamente dito. Por outro lado, uma rede recorrente utiliza suas sadas para alimentar de volta suas prprias entradas. Isso significa que
os nveis de ativao da rede formam um sistema dinmico que pode atingir um estado
estvel, exibir oscilaes ou, at mesmo, apresentar um comportamento catico.
No final da dcada de 1950, Frank Rosenblatt deu prosseguimento s idias de McCulloch e Pitts, criando uma genuna rede de mltiplos neurnios baseada na unidade de
limiar linear (HAYKIN, 2001, p. 143281). Esta rede foi denominada perceptron e possui
uma topologia em camadas, como mostra a Figura 3.4. Cada crculo denota um neurnio e cada coluna de neurnios representa uma camada. Assim, os neurnios de ndice
1, . . . , i, . . . , N compem a camada de entrada; os neurnios de ndice 1, . . . , j, . . . , L
formam a camada oculta; e os neurnios de ndice 1, . . . , k, . . . , M constituem a camada
de sada. A camada de entrada responsvel pela distribuio dos valores de entrada x
para os neurnios da camada oculta que, por sua vez, realizam um mapeamento intermedirio do problema em questo, gerando vetores linearmente separveis para a camada de
sada, a qual realiza a rotulao das classes ou o mapeamento desejado. A rede neural
da Figura 3.4 formada por uma nica camada oculta. Alternativamente, o mapeamento
intermedirio do problema pode ser realizado por sucessivas camadas ocultas. Todavia,
sabe-se hoje em dia que qualquer problema pode ser solucionado por um perceptron de
trs camadas, com um nmero suficiente de neurnios na camada oculta (HAYKIN, 2001).
O termo ij (t) o valor de sada do neurnio genrico j da camada oculta; yk (t) o valor
46
o
s
de sada do neurnio genrico k da camada de sada; wji
e wkj
so os pesos sinpticos
genricos da camada oculta e de sada, respectivamente.
Camada de Entrada
Camada Oculta
x0=1
x1(t)
i0=1
x1(t)
woj0(t)
xi(t)
woji(t)
w
j
ij(t)
wojN(t)
xN(t)
xN(t)
wsk0(t)
i1(t)
woj1(t)
xi(t)
Camada de Sada
y1(t)
yk(t)
yM(t)
k1(t)
wskj(t)
wskL(t)
iL(t)
k=1
fim
10
11
fim
47
Inspirao biolgica/terica
Aplicaes
Perceptron
Rede Backpropagation
Multicamadas
Redes auto-organizveis
Redes da famlia ART
Rede CPN
Rede de Hopfield
Crtex cerebral
Teoria da ressonncia adaptativa
Sinapses
Redes de atratores
3.5
Um conjunto de modelos conexionistas vem sendo proposto na literatura com a finalidade de modelar as propriedades peculiares de mapas corticais (ou mapas topogrficos)
do crebro de seres vivos, sendo genericamente conhecidos na literatura por mapas topolgicos auto-organizveis. Sabe-se hoje em dia que os mapas corticais tm importncia
mpar nos processos de aprendizagem e memria, pois fornecem uma representao compacta e fiel dos dados sensoriais. Dependendo da natureza da informao envolvida, um
mapa cortical recebe um nome especfico por exemplo, o mapa retinotpico faz o mapeamento da retina sobre o crtex visual, o mapa somatotpico da pele sobre o crtex
somato-sensrio, e o mapa tonotpico do ouvido sobre o crtex auditivo.
Em essncia, um mapa topolgico auto-organizvel definido por um arranjo de
neurnios representando diferentes elementos processadores ou filtros, que operam em
paralelo sobre sinais portadores de informao. Christoph von der Malsburg e David
Willshaw foram os pioneiros na construo de mapas topogrficos artificiais, propondo
em 1976 um modelo computacional para explicar o problema do mapeamento retinotpico (HAYKIN, 2001, p. 484). Inspirado nesta idia, no incio da dcada de 1980, Teuvo
Kohonen tambm elaborou um modelo que capturava as caractersticas essenciais dos variados mapas computacionais do crebro (KOHONEN, Sept. 1990, 2001). Este modelo,
intitulado mapa de Kohonen (ou SOM), uma rede engenhosa construda em torno de
uma grade uni- ou bidimensional que tem o propsito de transformar um sinal de entrada
de dimenso arbitrria em um arranjo discreto de unidades de processamento. Essa transformao realizada de forma adaptativa e mantm relaes de similaridade entre os dois
48
espaos. Por esse motivo, a rede de Kohonen geralmente utilizada para efetuar anlise
de agrupamentos e visualizao de dados multivariados em dimenses reduzidas.
Considere que X seja um espao contnuo de dados de entrada e que possua uma
topologia determinada por certas relaes mtricas entre vetores x X . Do espao X
conhece-se somente um conjunto finito de vetores (amostras) x X , organizados de
acordo com uma densidade de probabilidade p(x). Considere, ainda, que a topologia do
espao de sada A seja definida por um arranjo geomtrico de um conjunto de neurnios
i A. Desta forma, o mapeamento do espao de entrada X para o espao de sada A
realizado segundo uma transformao no-linear , tal que:
:X A
(3.3)
(3.4)
i = 1, 2, . . . , l
(3.5)
x1
x2
...
xm
= x(t)
49
ri k
Calcular o fator de vizinhana segundo hvi = exp krv2
2
8
9
10
fim
A seguir discutido em detalhes cada um dos processos envolvidos no algoritmo.
3.5.1
Processo de competio
(3.6)
1il
Processo de cooperao
50
krv ri k2
hvi (t) = exp
2 2 (t)
(3.7)
f
0
t
t = 0, 1, . . . , 1
(3.8)
Processo de adaptao
(3.9)
onde 0 < (t) 1 o parmetro da taxa de aprendizagem que controla a velocidade com
que os pesos sinpticos so modificados. Dito de outra forma, especifica a velocidade
com que a rede adquire um novo conhecimento.
Assim como no caso da largura da vizinhana topolgica, a taxa de aprendizagem
deve diminuir com o transcorrer do treinamento de modo a garantir a convergncia e,
principalmente, a estabilidade (i.e., manuteno da memria previamente aprendida) do
mapa. O parmetro , em geral, deve comear com um valor inicial 0 para t = t0 e,
ento, decair linearmente no tempo at atingir um valor final f , aps um nmero fixo de
iteraes 2 . Este requisito pode ser satisfeito escolhendo-se um decaimento exponencial,
de acordo com a Equao 3.10:
(t) = 0
f
0
t
t = 0, 1, . . . , 2
(3.10)
51
3.5.4
(3.11)
(3.12)
52
por uma regio do espao de entrada. A regio de influncia (ou, campo receptivo)
de um neurnio pode indicar que todos os padres de treinamento que ativam tal
neurnio compem um grupo ou uma categoria. Assim, correto afirmar que uma
propriedade intrnseca do algoritmo a categorizao dos padres de entrada.
Propriedade 2. Ordenao topolgica. O mapeamento ordenado de forma topolgica, no sentido de que a localizao espacial de um neurnio na grade corresponde
a uma caracterstica particular dos padres de entrada.
Propriedade 3. Casamento de densidade. O mapeamento reflete variaes na estatstica da distribuio da entrada. Regies no espao de entrada X de onde as amostras
x sejam retiradas com uma alta probabilidade de ocorrncia so mapeadas em regies maiores do espao de sada A, e vice-versa.
Propriedade 4. Seleo de caractersticas. O mapeamento fornece uma aproximao
discreta das curvas-principais, e pode, por conseguinte, ser visto como uma generalizao no-linear da anlise de componentes principais1 (JOLLIFFE, 2002).
Propriedade 5. Representao visual. O mapeamento pode ser visualizado de quatro
formas: representao do vetor de pesos no espao Rm ; matriz de distncia unificada (matriz-U) que permite analisar as relaes topolgicas entre os neurnios por
meio de uma imagem; planos de componentes que utiliza um mtodo de colorao
para analisar como cada vetor de entrada x foi organizado na grade; e atribuio de
rtulos de classe a cada neurnio, tal que a grade seja particionada em um nmero
de regies coerentes e forme um mapa contextual (ou, mapa semntico).
3.6
Consideraes do captulo
Este captulo apresentou um panorama geral da rea de redes neurais artificiais, introduzindo os principais conceitos, propriedades e componentes de uma rede neural. As
redes neurais representam um tema multidisciplinar com razes na neurocincia, matemtica, estatstica, fsica, cincia da computao e engenharia. A sua habilidade para
aprender a partir de exemplos as tornou ferramentas inestimveis em aplicaes to diversas como modelagem, anlise de sries temporais, reconhecimento de padres, processamento de sinais e controle. Em particular, as redes neurais tm muito a oferecer quando
a soluo de um problema de interesse dificultada por alguns dos seguintes pontos:
1. Falta de conhecimento fsico/estatstico do problema;
2. Variaes estatsticas nos dados observveis; e
3. Mecanismo no-linear responsvel pela gerao dos dados.
De forma resumida, uma rede neural artificial compreende um sistema no-linear do
tipo caixa-preta, pois fornece uma estrutura com parmetros ajustveis, sendo capaz de
implementar uma ampla classe de modelos (ENGEL, 2001). Os modelos que podem ser
implementados dependem essencialmente da arquitetura especfica da rede considerada.
1
A anlise de componentes principais uma tcnica estatstica poderosa utilizada para reduzir a dimensionalidade dos dados com um grande nmero de variveis correlacionadas e para fornecer uma viso
estatisticamente privilegiada do conjunto de dados original.
53
Por exemplo, a rede neural artificial mais simples, constituda por um nico neurnio
artificial, tambm chamada de perceptron elementar, equivale a um discriminador linear.
Por isso, o perceptron elementar capaz de implementar apenas modelos linearmente
separveis, o que restringe a sua aplicao a problemas bastante simples. Por outro lado,
uma arquitetura onde existem vrios neurnios dispostos paralelamente em camadas, com
ligaes adiante (feedforward) entre as camadas, equivale a um aproximador universal.
Em especial, a rede neural de Kohonen constitui uma classe de sistemas auto-organizveis, cujo algoritmo inspirado na neurobiologia2 , incorporando os mecanismos que so
bsicos para a auto-organizao: competio, cooperao e auto-amplificao. A sua
principal funcionalidade construir um mapeamento de um espao de dimenso elevada
para um arranjo discreto de neurnios de forma a conservar a topologia do espao de
entrada. Atualmente, a rede de Kohonen comumente empregada nos mais diversos
domnios de aplicao como, por exemplo, no reconhecimento e classificao de padres
em geral, identificao e controle de processos e na rea da robtica.
Por ser uma rede competitiva, a rede de Kohonen serve naturalmente para categorizar
os vetores de entrada, sendo capaz de extrair relaes complexas e no-lineares existentes
entre dados estticos, ou seja, a rede capaz de realizar quantizao vetorial. A quantizao vetorial pode ser compreendida como um procedimento que divide o espao de
entrada em um nmero de subespaos disjuntos, de tal forma que cada vetor de entrada
x representado pelo rtulo do subespao ao qual ele pertence. Em termos tcnicos, a
quantizao vetorial uma estimao pontual da funo densidade de probabilidade dos
dados de entrada, codificada pelo vetor de pesos sinpticos dos neurnios da rede. Portanto, a densidade de neurnios mxima nas reas em que entradas aparecem com maior
probabilidade e mnima em regies onde as entradas so escassas. A quantizao vetorial
oferece trs vantagens principais s redes neurais artificiais:
Compresso de dados, uma vez que, aps a estabilizao da rede com um limiar de
erro aceitvel, seus pesos podem ser utilizados em vez dos prprios dados;
Reduo considervel de esforo computacional, pois a quantidade de vetores de
pesos (prottipos) bastante reduzida em relao quantidade de dados; e
Aumento da robustez, visto que os prottipos extraem qualidades estatsticas mdias, filtrando flutuaes aleatrias que porventura estejam presentes nos dados.
Na rede de Kohonen os neurnios esto dispostos conforme um arranjo predeterminado uni- ou bidimensional, que mantido durante todo o processo de treinamento. Na
maioria das vezes, pouca ou nenhuma informao est disponvel acerca do tamanho e
da distribuio do conjunto de amostras do espao de entrada X . Portanto, a definio
de uma arquitetura de rede apropriada um fator que depende, em grande parte, da experincia emprica do projetista. Alm disso, as amostras podem estar correlacionadas no
tempo, ou seja, a ordem em que so observadas no tempo tem um papel fundamental e
deve ser levada em conta pelo modelo neural. No entanto, a rede de Kohonen convencional somente capaz de processar dados que esto relacionados de forma espacial.
Com o propsito de resolver as duas limitaes supracitadas, inmeras derivaes e
variaes da rede de Kohonen foram propostas na literatura especializada da rea. Esperase que esta introduo sobre os fundamentos de redes neurais artificiais possibilite a compreenso dos formalismos e das tcnicas de aprendizagem empregadas em redes autoorganizveis temporais e construtivas, tema a ser explorado no prximo captulo.
2
54
TRABALHOS CORRELATOS
Este captulo busca oferecer uma viso geral das pesquisas relacionadas ao tema desta
dissertao. Em um primeiro momento, trabalhos que tratam da questo temporal em
redes neurais auto-organizveis so discutidos. Logo aps, feito um apanhado sobre
redes neurais auto-organizveis construtivas. Como no existem mtricas rgidas para se
avaliar em termos quantitativos cada modelo, a maioria foi implementada no simulador
robtico desenvolvido e testada em casos simples, considerando tarefas de segmentao
temporal. O objetivo principal da anlise foi o de obter uma idia das caractersticas e
peculiaridades de cada modelo e, ao mesmo tempo, fornecer parmetros sobre que limites
precisam ser superados. O resultado desta anlise est sintetizado nas Tabelas 4.1 e 4.2.
4.1
A proposta original da rede de Kohonen baseada no processamento de dados estticos. Em outras palavras, dados que esto relacionados apenas de forma espacial. Contudo, tambm pode existir uma correlao temporal entre eles. Este o caso de padres
que ocorrem seqencialmente no tempo, tal que um padro individual no tem significado algum a no ser que seja considerado em conjunto com aqueles que o precedem
e/ou seguem. Para tais padres, doravante denominados indistintamente de dinmicos,
temporais ou seqenciais, a ordem em que eles so observados no tempo tem um papel
fundamental e deve ser levada em conta pelo modelo neural que os processa1 .
Desta forma, de suma importncia investigar como incorporar o tempo na operao
de uma rede neural, pois muitas das tarefas desempenhadas por seres humanos e animais
envolvem tomadas de deciso e respostas comportamentais a estmulos espao-temporais,
como, por exemplo, a viso, a fala, o processamento de sinais e o controle motor. A
capacidade de processar padres temporais deve ser uma propriedade das mais relevantes
de um sistema inteligente, seja ele biolgico ou artificial.
A grande maioria das redes neurais para processar informao temporal baseada no
aprendizado supervisionado, entre elas o perceptron de mltiplas camadas, redes de base
radial e redes baseadas em memria associativa (MOZER, 1993; HAYKIN, 2001, p. 685
847). Apesar de existirem redes no-supervisionadas projetadas para lidar com seqncias
temporais desde o final dos anos 60, apenas recentemente que elas tm recebido ateno especial por parte da comunidade cientfica. Em (BARRETO; ARAJO, 2001; MOSER,
2004, p. 1957) apresentada uma reviso bibliogrfica do estado da arte em modelos de
representao temporal baseados na arquitetura da rede de Kohonen.
1
Para uma discusso sobre o papel do tempo no processamento neural, consulte (ELMAN, 1990).
55
4.1.1
De acordo com (BARRETO; ARAJO, 2001, p. 4), um padro dinmico uma srie
ou seqncia espao-temporal de natureza determinstica, estocstica, ou ainda catica,
formada por um conjunto finito e ordenado no tempo de N vetores de caractersticas:
XN = {x(t), x(t 1), x(t 2), . . . , x(t N )}
(4.1)
onde cada componente denotado por x(t) = [x1 (t), x2 (t), . . . , xn (t)]T Rn . Caso existam vrias seqncias, comumente os itens de uma seqncia particular so identificados
por meio de um sobrescrito, por exemplo, , = 1, . . . , P .
Para fins de simulao em um computador digital til adotar-se uma verso discreta da dimenso temporal, tal que o tempo evolua em intervalos regulares t. Desta
forma, o smbolo t usado para representar um instante particular no tempo, onde t
{0, t, 2t, 3t, . . .}. Em geral, a unidade de medida t expressada como um elemento do conjunto de nmeros inteiros: t {0, 1, 2, 3, . . .}
O processamento de seqncias temporais uma tarefa desafiadora para a qual ainda
no h uma abordagem unificada (BARRETO; ARAJO, 2001, p. 5). Isto se deve em parte
diversidade de propriedades dos sinais temporais. O conhecimento dessas propriedades
til para entender as aplicaes envolvidas em redes neurais temporais. As seguintes
definies tm carter geral e se aplicam igualmente a qualquer seqncia (BARRETO;
ARAJO, 2001, p. 5):
1. Ordem temporal: posio relativa de cada item da seqncia em relao a outro;
2. Mtrica: durao de um padro no tempo em relao a outros padres da seqncia;
3. Densidade: nmero de vetores de caractersticas que compem uma seqncia;
4. Assimetria: sentido do tempo que normalmente no pode ser invertido;
5. Contexto temporal: menor subseqncia formada por itens passados que possibilitam determinar sem ambigidades o item atual da seqncia; e
6. Grau: nmero de itens que compem o contexto temporal.
As propriedades supracitadas so usualmente codificadas como parmetros do modelo. Se, porventura, as propriedades no variarem com o tempo, ento diz-se que o sinal
estacionrio ou invariante no tempo. No entanto, muitos sinais do mundo real so gerados a partir de sistemas cujos parmetros variam significativamente com o tempo e, por
isso, so denominados de no-estacionrios ou variantes no tempo.
4.1.2
Para estabelecer associaes e extrair correlaes temporais entre padres consecutivos de uma dada seqncia, uma rede neural deve ser capaz de reter e manter provisoriamente informao sobre itens passados desta seqncia. O mecanismo de reteno,
usualmente denominado memria de curto prazo (STM, do ingls short-term memory),
amplamente utilizado no processamento de seqncias temporais2 .
2
Para uma reviso das estruturas de memria de curto prazo e seu papel no processamento temporal,
consulte (MOZER, 1993), (HAYKIN, 2001, p. 685690) e (BARRETO; ARAJO, 2001).
56
t
X
c(t )x( )
(4.2)
=1
Memria de atraso
A memria de atraso consiste na forma mais simples de representar a informao temporal. Basicamente, a memria armazena o valor do k-simo instante de tempo passado
do vetor x. O valor de k especifica o atraso da memria, ou seja, de quanto tempo o
sinal de sada da memria est defasado em relao ao sinal de entrada. A representao
grfica de uma memria de atraso est ilustrada na Figura 4.1.
Memria de Atraso
x(t)
z-k
x(t-k)
(4.3)
Em tcnicas digitais a funo kernel definida como a resposta a um impulso unitrio do sistema.
57
4.1.2.2
(4.5)
58
x(t)
+
1-
x(t-1)
z-1
(4.6)
Figura 4.4: Funo kernel da memria de trao exponencial para = 0.6, 0.7, 0.8, e, 0.9.
4.1.2.3
Memria Gama
59
Memria Gama
x(t)
z-
1-
x0(t--1)
z-1
1-
x1(t-)
1-
z-1
...
x(t)
z-1
x(t-1)
(4.7)
c(t) =
(4.8)
0
caso contrrio
Como pode-se observar na Figura 4.6, a memria Gama agrega a funcionalidade das
memrias de atraso e das memrias de trao exponencial.
Figura 4.6: Funo kernel da memria Gama para = 6 e = 0.3, 0.5, e, 0.7.
4.1.2.4
Memria diferenciadora-integradora
A memria diferenciadora-integradora proposta por Moser (2004) tem como finalidade principal extrair informaes temporais implcitas do sinal de entrada original x(t),
60
(4.9)
(4.10)
(4.11)
onde x(t) o vetor de entrada, x(t) representa a mdia mvel do sinal de entrada
com constante de decaimento , dx(t) representa a diferena do sinal de entrada por sua
mdia mvel, e dx(t) a sada da memria no instante t e representa a mdia mvel do
sinal dx(t) com constante de decaimento . As constantes de integrao e devem
ter o valor entre 0 e 1. Consideram-se as condies iniciais x(0) = 0 e dx(0) = 0. A
Figura 4.7 representa graficamente a memria diferenciadora-integradora.
Memria Diferenciadora-Integradora
x(t)
1-
x(t)
+1
-1
+
+
dx(t) 1-
dx(t)
-1
dx(t-1)
x(t-1)
z-1
c(t) = (1 ) (1 )(1 )
t1
X
( t1j j )
(4.12)
j=0
Pela Figura 4.8 pode-se perceber que a funo kernel da memria diferenciadoraintegradora tem um comportamento padro independente dos parmetros e (MOSER,
2004, p. 6365). Para os casos em que < 1, a funo kernel computa a diferena dos
sinais mais recentes pelos sinais que os antecedem, reproduzindo o clculo da diferenciao. Para os casos em que = 1, a funo kernel sempre positiva e tende a zero
em uma taxa exponencial, refletindo o comportamento da integrao. Outra observao
importante a respeito da funo kernel relativa sua rea total. Com exceo de = 1,
a integral da funo kernel sempre zero (i.e., a regio positiva tem a mesma rea que
a regio negativa). Esta propriedade faz com que se um sinal constante for aplicado
memria, a sua sada tender a zero.
A seguir faz-se uma anlise sobre a influncia dos parmetros e no funcionamento
da memria diferenciadora-integradora:
Para < 1 e = 0, a Equao 4.11 reduzida ao termo x(t) x(t 1), que
corresponde a uma subtrao do sinal de entrada x(t) por sua integrao x(t 1).
Para = 1 e < 1, a Equao 4.11 reduzida ao termo (1 )x(t) + dx(t 1),
que consiste em uma integrao do sinal de entrada.
61
Unidade de habituao
A habituao uma forma simples de aprendizado tipicamente observada em organismos biolgicos. Do ponto de vista da neurocincia, a habituao ocorre atravs de
mudanas estruturais nas conexes sinpticas entre os neurnios, de tal forma que a resposta eltrica a estmulos repetitivos e irrelevantes seja paulatinamente reduzida at ser
nula. Ou seja, a habituao funciona como um filtro de novidade para o organismo.
O fenmeno da habituao j foi utilizado como fonte de inspirao em inmeros
modelos conexionistas como uma forma de representao temporal. DeLiang Wang e
Michael Arbib (BRISTOL; PURCELL; CAREW, 2003, p. 504507) propuseram um modelo
computacional da habituao que opera da seguinte forma:
y(t) = y(t 1) + (z(t)(y(0) y(t 1)) y(t 1)x(t))
z(t) = z(t 1) + z(t 1)(z(t 1) 1)x(t)
(4.13)
(4.14)
onde x(t) o sinal de entrada, determina a taxa de recuperao da habituao, controla a velocidade de habituao, uma constante de tempo que governa a variao da
taxa de habituao e z(t) regula a recuperao da habituao. Inicialmente, quando z(t)
relativamente grande, a recuperao rpida. Em contraste, quando z(t) pequeno,
a recuperao lenta. Ou seja, medida que o processo de habituao se desenvolve,
a velocidade de recuperao da habituao se torna cada vez mais lenta, produzindo um
efeito de habituao mais duradouro (i.e., a longo prazo).
A representao grfica da unidade de habituao ilustrada na Figura 4.9.
62
Unidade de Habituao
x(t)
+1
-1
z(t)
y(0)
+1
+1
y(t)
+1
x
+1
-1
y(t-1)
z-1
Discusso
As memrias de curto prazo podem ser analisadas segundo os critrios de profundidade e resoluo (MOZER, 1993, p. 5). A profundidade indica o quo distante no tempo
a memria pode representar uma informao. A resoluo determina a qualidade da informao armazenada para cada instante de tempo. A memria de atraso unitrio tem
pequena profundidade e alta resoluo, uma vez que armazena um nico valor do passado
sem perda de informao. A memria de trao exponencial tem grande profundidade e
pequena resoluo, pois representam teoricamente todos os dados do passado mas com
degradao exponencial na qualidade da informao.
4
Na unidade de habituao, a sensibilizao tem como propsito sobrepor-se aos efeitos da habituao,
caracterizando um processo denominado desabituao (BRISTOL; PURCELL; CAREW, 2003, p. 504507).
63
A memria Gama generaliza o comportamento das memrias de atraso e das memrias exponenciais, no entanto, com um elevado custo computacional atrelado e uma quantidade bem maior de parmetros que devem ser ajustados. A memria diferenciadoraintegradora realiza uma integrao e/ou diferenciao da informao temporal, eliminando toda a redundncia e a correlao espao-temporal do sinal de entrada. A unidade
de habituao tem um comportamento similar ao da memria de trao exponencial, entretanto, a integrao da informao temporal realizada tem um vis para acumulao do
sinal de entrada at seu ponto de saturao (valor zero).
A Figura 4.10 apresenta uma comparao entre as memrias de curto prazo discutidas. Como pode ser observado, as seis memrias geram ambigidades na representao,
entretanto, em instantes de tempo distintos (e.g., instantes 40 e 60 na Figura 4.10d). Provavelmente, a soluo mais robusta seja obtida pela utilizao adequada de diferentes
tipos de memrias, cada uma ressaltando uma propriedade temporal distinta.
Figura 4.10: (A) Sinal temporal de entrada x(t) aplicado s memrias de curto prazo.
(B) Resposta de uma memria de linhas de atraso de parmetro = 3. (C) Resposta de
uma memria de trao exponencial de parmetro = 0.9. (D) Resposta de uma memria
gama de parmetros = 6 e = 0.4. (E) Resposta de uma memria diferenciadoraintegradora de parmetros = 0.6 e = 0.4. (F) Resposta de uma unidade de habituao
de parmetros = 0.1 e = 0.9.
Nessa discusso sobre memrias de curto prazo torna-se relevante enfatizar a dife-
64
rena entre treinar uma rede de Kohonen com entrada esttica e com uma entrada dinmica. No primeiro caso h um particionamento do conjunto de treinamento em categorias conforme as similaridades espaciais, enquanto que no segundo existe uma separao
por uma combinao da semelhana espacial e da proximidade temporal. As redes de
Kohonen temporais aplicam as tcnicas de memria de curto prazo de variadas formas,
conforme ser descrito nas subsees seguintes.
4.1.3
O Mapa Auto-Organizvel de Linhas de Atraso (KANGAS, 1990) uma rede de Kohonen convencional que utiliza memrias de curto prazo externamente rede. Ou seja, as
memrias so aplicadas aos itens da seqncia e no rede propriamente dita, que permanece esttica. O vetor de entrada original x(t) simplesmente substitudo por uma de
suas verses temporais mostradas nas Equaes 4.3 e 4.5. Alm disso, Kangas (1990)
prope usar duas redes de Kohonen em cascata com o mecanismo de memria de curto
prazo interposto entre as duas redes. Esta noo de hierarquia atraente pois supem-se
que o desempenho global do sistema seja melhorado por meio de sucessivos refinamentos
da representao obtida por cada rede em uma camada inferior da hierarquia.
O autor reportou melhorias no reconhecimento de fonemas isolados e em testes com
sinais de voz no-segmentados, quando comparado com uma rede de Kohonen convencional. Ademais, o autor comparou os trs modelos temporais na classificao de uma
seqncia temporal de duas dimenses em forma de 8. Nesta seqncia, h um nico
ponto ambguo, localizado na coordenada (0.5; 0.5), que a rede deve diferenciar para os
instantes t = 50 e t = 150. A rede de Kohonen classifica os dois instantes com o mesmo
neurnio, pois carece de uma memria. No entanto, os trs modelos temporais elaborados
por Kangas (1990) conseguem distinguir casos de ambigidade espacial como este.
4.1.4
65
(4.16)
(4.17)
(4.18)
(4.19)
66
A forma no-linear da Equao 4.19 uma sugesto do autor para garantir a estabilidade das representaes temporais geradas. A informao de contexto faz com que os
neurnios da rede se agrupem de acordo com a similaridade espacial do padro atual e
tambm conforme a classificao do padro anterior. Os pesos sinpticos so ajustados a
cada passo de tempo, a partir das seguintes regras:
wix (t + 1) = wix (t) + (t)hvi (t)[x(t) wix (t)]
wiy (t + 1) = wiy (t) + (t)hvi (t)[y(t 1) wiy (t)]
(4.20)
(4.21)
(4.22)
onde 0 1 a taxa de decaimento de atividade. Para que seqncias temporais repetitivas no gerem ambigidade na representao, a rede impede que o prottipo vencedor
se repita de um instante para o seguinte. Esta restrio faz com que a rede possa ter dois
prottipos representando o mesmo padro de entrada.
4.1.9
x(t) =
1X
x(t j)
j=0
(4.23)
67
(4.24)
dx(t)
1X
kx(t j) x(t)k
=
j=0
(4.25)
dw(t) =
1X
min {kx(t j) wl (t)k}
j=0 1lk
(4.26)
Resumo
68
Representao define se o tipo de representao temporal gerada de origem simblica (local) ou de origem numrica (esparsa); e
Natureza da memria especifica o mecanismo de memria de curto prazo empregado, a saber: (i) linha de atrasos de tempo; (ii) integradores; (iii) diferenciadores;
ou (iv) laos de realimentao (recorrncia).
Topologia
Posio
Representao
Natureza da memria
TDSOM1
No-hierrquica
Externa
Local
TDSOM2
No-hierrquica
Externa
Local
TDSOM3
Hierrquica
Interna
Local
DIN
No-hierrquica
Externa
Local
TKM
No-hierrquica
Interna
Local
RSOM
No-hierrquica
Interna
Local
CSOM
No-hierrquica
Interna
Local
SOMSD
No-hierrquica
Interna
Local
MSOM
No-hierrquica
Interna
Local
SARDNET
No-hierrquica
Interna
Esparsa
ARAVQ
Interna
Local
4.2
A proposta original da rede de Kohonen baseada em uma arquitetura neural previamente definida e extremamente rgida, contendo o mesmo arranjo geomtrico e nmero de
neurnios durante todo o processo de treinamento. Em muitos casos, pouca ou nenhuma
informao est disponvel acerca do tamanho e da distribuio do conjunto de amostras
do espao de entrada X . Logo, a definio de uma arquitetura de rede apropriada um
fator que depende, em grande parte, da experincia emprica do projetista.
Uma alternativa que resolve o problema suscitado o mtodo de aprendizado construtivo (FRITZKE, 1996, 1997b, 1997c), em que no necessita-se definir a priori a arquitetura
da rede. Os mtodos construtivos se enquadram em duas categorias principais, conforme
o mecanismo utilizado para incluir e remover neurnios e conexes (ALPAYDIN, 1994):
1. Iniciar com uma arquitetura de rede de dimenso elevada e paulatinamente eliminar neurnios e conexes desnecessrias no intuito de aumentar a capacidade de
69
Uma das primeiras redes construtivas foi elaborada por Fritzke (1992) e consiste em
um arranjo bidimensional de neurnios conectados entre si na forma de tringulos. A
rede limitada a um nmero mximo de simplexos k-dimensionais, onde k um nmero
inteiro escolhido antes de iniciar o treinamento. Por exemplo, se k = 1 o simplexo uma
linha, se k = 2 um tringulo, se k = 3 um tetraedro, e assim por diante. Posteriormente, Fritzke (1994) sugeriu uma generalizao de sua proposta original com arranjos
baseados em hipertetraedros, o que promove uma melhor recuperao da estrutura do
espao de entrada X , no entanto, acaba por dificultar a sua visualizao.
Ao longo do processo de treinamento, padres so apresentados rede, modificaes
nos pesos das conexes sinpticas entre os neurnios so realizadas e uma informao
de erro de quantizao vetorial acumulada em cada neurnio. Essa informao de erro
acumulado til para decidir onde devem ser includas novas unidades, ou seja, em que
posio do arranjo deve-se adicionar novas unidades para diminuir o erro de quantizao.
O procedimento de insero de novos neurnios realizado se o nmero de padres
apresentados rede for mltiplo de um parmetro . A nova unidade inserida entre o
neurnio com o maior erro acumulado e o seu vizinho mais distante. Depois dessa primeira unidade, o resto do simplexo completado de tal forma que a rede resultante estar
formada exclusivamente por simplexos k-dimensionais. A rede continua a se adaptar e
a crescer at um determinado critrio ser satisfeito, que pode ser o tamanho da rede, em
nmero de neurnios ou conexes, ou alguma medida de erro mnimo aceitvel.
Bruske e Sommer (1995) sugeriram uma extenso da rede GCS denominada Growing
Dynamical Cell Structure (GDCS). A principal diferena que a insero de novos neurnios somente realizada para assegurar a preservao da estrutura topolgica da rede, e
no para igualar o valor previsto do erro de cada neurnio. Alm disso, a rede simplifica as estruturas internas que eram necessrias para manter os simplexos. Em (AHRNS;
BRUSKE; SOMMER, 1995) uma rede GDCS modificada aplicada com sucesso em um
problema de controle clssico da Inteligncia Computacional, chamado Pole Balancing.
Burzevski e Mohan (1996) propuseram uma rede hierrquica denominada Hierarchical Growing Cell Structures (HiGS), na qual submapas hierrquicos so criados de forma
70
gradual e conforme a complexidade do problema. A capacidade de deteco de agrupamentos e adaptao distribuio dos dados melhorada significativamente em relao a
proposta original da rede de Fritzke. Anos mais tarde, Hodge e Austin (2001) elaboraram
uma nova rede hierrquica chamada Tree Growing Cell Structures (TreeGCS), na qual a
remoo de conexes eventualmente causa a criao de uma hierarquia de submapas.
4.2.2
O modelo Incremental Grid Growing (BLACKMORE, 1995; BLACKMORE; MIIKKULAINEN, 1995) foi proposto com o intuito de suplantar a caracterstica indesejvel do Growing
Cell Structures de, eventualmente, gerar arranjos em um espao de elevada dimenso. O
processo de treinamento similar rede de Kohonen tradicional, porm, iniciado com
uma rede de apenas quatro neurnios conectados entre si formando um quadrado.
Novas unidades so adicionadas apenas nos limites externos do mapa (i.e., na zona
perimetral), perto daqueles neurnios com maior erro acumulado, atravs de uma heurstica de crescimento. A nova unidade conectada diretamente ao neurnio de fronteira do
qual derivou. Ao longo do treinamento, conexes entre neurnios adjacentes da rede so
inseridas e removidas conforme a distncia euclidiana entre o vetor de pesos sinpticos.
Os procedimentos de insero e remoo de unidades e conexes permite que a rede
mantenha uma estrutura retangular. A estrutura gerada assegura uma fcil visualizao
das amostras do vetor de entrada x, entretanto, nem sempre a melhor para recuperar a
estrutura intrnseca do espao de entrada X .
Alahakoon, Halgamuge e Srinivasan (2000) propuseram um mtodo de inicializao
dos pesos sinpticos dos neurnios que so inseridos no arranjo. Este novo procedimento
simplifica e reduz a possibilidade de gerar mapas inapropriados em relao distribuio
dos dados. O resultado uma rede denominada Growing Self-Organizing Map (GSOM)
que tem maior flexibilidade para adaptar-se distribuio dos dados.
Merkl e colaboradores (2003) elaboraram um modelo hierrquico chamado Adaptive
Hierarchical Incremental Grid Growing (AHIGG), onde cada camada individual da arquitetura uma variao da rede IGG. Por essa razo, cada mapa individual pode crescer
de forma irregular e, eventualmente, remover conexes entre unidades vizinhas. Dessa
forma, as camadas dos nveis inferiores da hierarquia representam com maior fidelidade
a distribuio dos dados, o que facilita a explorao visual.
4.2.3
O modelo Growing Grid (FRITZKE, 1995a) bastante similar s duas propostas anteriores. No entanto, a partir de um arranjo com quatro neurnios iniciais (i.e., uma grade
2 2), so inseridas linhas e colunas de novos neurnios no arranjo, promovendo uma
busca automtica da dimenso ideal para a rede. Assim, a topologia da rede estritamente
retangular, o que torna a sua visualizao extremamente simples.
O algoritmo opera em duas fases distintas. Durante a fase de crescimento uma rede
retangular vai sendo formada pela incluso de linhas e colunas no arranjo at um determinado critrio ser satisfeito. Valores estatsticos acumulados so usados para determinar
onde novas unidades devem ser inseridas. Diferentemente da rede de Kohonen tradicional, o parmetro da largura da vizinhana, , um valor relativamente baixo e constante
no tempo. Apesar disso, medida que a rede cresce, a frao de todas as unidades que so
adaptadas junto com o neurnio considerado vencedor diminui. Na fase de convergncia
o tamanho da rede no mais alterado e a taxa de aprendizagem, , sofre um decaimento
exponencial para realizar um ajuste fino da rede, permitindo quantificar regularidades
71
O consagrado modelo Growing Neural Gas (FRITZKE, 1995b) uma verso construtiva do mtodo Neural Gas (NG) proposto por Martinetz (1991), tendo surgido principalmente como resultado da combinao do mecanismo de crescimento do modelo Growing
Cell Structures (FRITZKE, 1992) e do mecanismo de gerao de topologia da tcnica Competitive Hebbian Learning (CHL) (MARTINETZ, 1993; MARTINETZ; SCHULTEN, 1994).
O treinamento da rede iniciado com apenas dois neurnios conectados entre si. Para
cada padro apresentado rede, as duas unidades mais prximas so selecionadas conforme uma funo de distncia euclidiana. Se, porventura, no existir uma conexo entre
elas, o algoritmo se encarrega de cri-la. A unidade vencedora juntamente com a sua
regio de vizinhana sofrem um processo de adaptao de pesos sinpticos.
Cada conexo da rede tem associada a si um contador que controla a sua idade. Esse
valor somente zerado caso os neurnios que ela conecte sejam escolhidos como vencedores. Se o contador de idade atingir certo valor a conexo eliminada. Portanto, a idia
priorizar as conexes novas em detrimento de antigas. Esta tcnica visa atualizar a cada
instante a topologia da rede, mantendo apenas conexes que sejam teis.
Novas unidades vo sendo inseridas e removidas sucessivamente ao longo do processo
de treinamento, conforme a taxa de crescimento dada pelo parmetro . Para determinar
em que posio do arranjo dever ser adicionada uma nova unidade, informaes relacionadas ao erro de quantizao so coletadas durante o processo de adaptao. A nova
unidade inserida entre o neurnio com o maior erro acumulado e um de seus vizinhos, e
as variveis de erro so localmente redistribudas. A rede continua a se adaptar e a crescer
at um determinado critrio de parada ser satisfeito (e.g., tamanho mximo da rede).
O arranjo da rede gerado ao final do processo de treinamento chamado de triangulao induzida de Delaunay (FRITZKE, 1995b), pois preserva de maneira tima a topologia
da massa de dados de entrada. A rede capaz de recuperar a estrutura de dados bastante complexos, inclusive com diferentes dimenses e regies desconexas. No entanto,
a convergncia demasiadamente lenta pois novos neurnios somente so inseridos na
rede em interaes mltiplas de uma constante de tempo predefinida (). Marsland, Shapiro e Nehmzow (2002) propuseram uma nova abordagem chamada Grow When Required
(GWR), na qual neurnios so inseridos rede de forma automtica. Assim, a rede cresce
rapidamente quando novos dados so apresentados a ela mas interrompe o processo de
crescimento uma vez que tenha convergido para uma soluo estvel.
Uma das maiores deficincias do mtodo GNG a inabilidade de se adaptar rapidamente a dados com distribuies que mudam rapidamente (i.e., dados no-estacionrios).
Fritzke (1997a) sugere associar um fator de utilidade a cada neurnio da rede. A idia
remover as unidades que contribuem pouco para a diminuio do erro de quantizao e tentar adicionar novas unidades em posies mais significativas para o sucesso do
72
algoritmo. Trabalhos similares foram realizados por Lang e Warwick (2002), que desenvolveram a rede Plastic Self-Organizing Map (PSOM), e por Hung e Wermter (2005), que
elaboraram a rede hierrquica Dynamic Adaptive Self-Organising Hybrid Model (DASH).
4.2.5
Resumo
73
Arranjo
GCS
Simplexos
Fixa
IGG
Retangular
Fixa
GG
Retangular
Fixa
GNG
Grafo
Varivel
GWR
Grafo
Varivel
ART
Linear
Varivel
4.3
Modo de Poda
-
Automtico, atravs de um
contador de idade
Automtico, atravs de um
contador de idade
-
Consideraes do captulo
O presente captulo no teve a pretenso de ser completo ou exaustivo, pelo contrrio, teve como meta descrever de forma breve e de fcil entendimento os conceitos, as
propriedades, limitaes e variaes das principais abordagens temporais e construtivas
das redes neurais artificiais auto-organizveis. O resultado do apanhado realizado neste
captulo foi sintetizado atravs das Tabelas 4.1 e 4.2. A anlise qualitativa realizada se
baseou nos comentrios dos respectivos autores, em observaes deduzidas a partir das
caractersticas e peculiaridades de cada modelo neural e, principalmente, em simulaes
computacionais desenvolvidas a partir de uma implementao prpria.
At a data corrente, no h na literatura especializada da rea algoritmos de aprendizado de natureza auto-organizvel que integrem a representao temporal e o aprendizado
construtivo. Neste trabalho, admite-se a hiptese de trabalho de que estas trs caractersticas, quando combinadas adequadamente em uma rede neural artificial, viabilizam a resoluo de tarefas robticas de horizonte infinito e de dimenso espao-temporal. Desse
modo, o desenvolvimento de um novo modelo de rede neural artificial que contemple a
auto-organizao, a representao temporal e o aprendizado construtivo extremamente
desejvel e constitui a principal meta a ser atingida no presente trabalho.
74
Neste captulo prope-se um modelo de rede neural auto-organizvel, temporal e construtivo. A rede denominada GTSOM (do acrnimo em ingls para Growing Temporal
Self-Organizing Map). Em um primeiro momento, d-se uma viso geral da estrutura da
rede que est sendo proposta. Logo aps, detalha-se o seu funcionamento, com especial
nfase nos processos de incluso, remoo e adaptao de neurnios e conexes. Em seguida, realiza-se uma anlise sobre os seus parmetros e variveis e argumenta-se sobre
sua plausibilidade biolgica. Por fim, conclui-se com um resumo e uma discusso final.
5.1
Introduo
O presente trabalho prope o desenvolvimento de um novo modelo de rede neural artificial voltado a aplicaes da rea da robtica, em especial a tarefas de natureza espaotemporal e de horizonte infinito. Este modelo apresenta trs caractersticas que o tornam
nico e que foram tomadas como guia para a sua concepo: auto-organizao, representao temporal e aprendizado construtivo. A seguir faz-se uma breve anlise de como
estas trs caractersticas esto relacionadas com o funcionamento da rede neural proposta:
O processo de aprendizagem auto-organizada consiste em modificar repetidamente
e de forma no-supervisionada os pesos sinpticos de todas as conexes da rede
em resposta a padres de entrada espao-temporais. O algoritmo de aprendizagem ocorre, basicamente, atravs de mecanismos de competio global, cooperao local e auto-amplificao seletiva. Aps o treinamento, os neurnios da rede se
tornam seletivamente sintonizados a vrios padres de entrada espao-temporais;
O tempo includo na operao da rede neural por meio de uma memria de curto
prazo. A memria de curto prazo, doravante denominada indistintamente de memria ou unidade de memorizao, aplicada externamente sobre os itens da seqncia temporal e no rede propriamente dita, que permanece esttica1 . A memria
utilizada uma sugesto de Moser (2004) e tem como funo realizar uma derivao e/ou integrao da informao de entrada; e
A construo automtica da arquitetura da rede neural realizada de acordo com
uma unidade de habituao. A unidade de habituao regula tanto o crescimento
1
Kangas (1990) originariamente props trs modelos neurais para representar aspectos seqenciais de
dados. Os modelos propostos por Kangas (1990) usam memrias de linhas de atraso de tempo e de trao
exponencial. De forma inovadora, as memrias de curto prazo so aplicadas externamente rede.
75
5.2
A rede neural proposta faz parte de uma famlia de modelos conexionistas autoorganizveis, cuja essncia construir um mapeamento no-linear de um espao de
entrada contnuo Z para um espao de sada discreto A. O espao Z formado por um
subespao de entrada sensorial X e um subespao de entrada contextual Y, tal que:
Z = X Y = {(x1 , y1 ), (x2 , y2 ), (x3 , y3 ), . . .} = {z1 , z2 , z3 , . . .}
(5.1)
(5.2)
O subespao de entrada sensorial X tem uma topologia definida por certas relaes
mtricas entre vetores x X . Do subespao X conhece-se apenas um conjunto finito de
amostras organizadas conforme uma densidade de probabilidade p(x):
X = {x1 , x2 , x3 , . . .}
(5.3)
(5.4)
onde t especifica o instante de tempo discreto em que a amostra foi observada e o ndice
superior T indica a transposio matricial.
O subespao de entrada contextual Y gerado a partir da memria de curto prazo :
: x y, (x X ) ((x) Y)
(5.5)
A principal finalidade de uma memria de curto prazo extrair informaes temporais implcitas de um sinal de entrada original. Dessa forma, a sada da rede neural se
torna uma funo do tempo e tarefas que envolvam o processamento de padres espaotemporais se tornam passveis de serem realizadas pela rede neural. Basicamente, h dois
aspectos a serem considerados quanto incorporao de uma memria de curto prazo no
projeto de uma rede neural: a posio e a natureza da memria. A posio indica se a
memria aplicada externa ou internamente rede neural. A natureza diz respeito ao
mecanismo de funcionamento da memria, que pode ser por linha de atrasos de tempo,
diferenciadores, integradores e/ou laos de realimentao (recorrncia).
2
Marsland, Nehmzow e Shapiro (1999) originariamente propuseram usar uma unidade de habituao
simplificada para controlar somente o crescimento de uma rede neural auto-organizvel. Mais especificamente, o modelo de Habituao de Stanley foi acoplado a uma rede de Kohonen convencional. A
rede HSOM (Habituating Self-Organizing Map), como denominada em (MARSLAND; NEHMZOW; SHAPIRO,
2005), mostrou-se adequada em vrias aplicaes robticas de deteco de novidades.
76
Na rede neural em questo, a memria aplicada sobre os itens da seqncia temporal e no rede propriamente dita, que permanece esttica. A memria utilizada
uma sugesto de Moser (2004) e tem como funo realizar uma derivao e/ou integrao da informao contida em cada dimenso do vetor x(t), dependendo dos parmetros
escolhidos3 . Matematicamente, a memria tem o seu funcionamento regido por:
x(t) = (1 )x(t) + x(t 1)
y(t) = (1 )(x(t) x(t 1)) + y(t 1)
(5.6)
(5.7)
x(t)
+1
-1
+
+
1-
y(t)
-1
x(t-1)
y(t-1)
z-1
(5.8)
(5.9)
(5.10)
(5.11)
Para maiores detalhes sobre a memria de curto prazo de Lcio Moser (2004), consulte a Seo 4.1.2.4.
77
i = 1, 2, . . . , n
wiy (t)
wix (t)
(5.12)
onde
e
tm a mesma dimenso do vetor de entrada x (i.e., igual a m) e n o
nmero de neurnios da rede no instante de tempo t, i.e, n = |A(t)|.
Alm de pesos de entrada wx e de contexto wy , cada neurnio est conectado a uma
unidade de habituao atravs de um escalar wh R1 , tal que wih = (Si ), i A.
wix
wiy
: S wh , (S Rn ) ((S) Rn )
(5.13)
A unidade de habituao uma verso simplificada e discreta do modelo de Habituao de Wang e Arbib (BRISTOL; PURCELL; CAREW, 2003, p. 504507)4 . No modelo neural
proposto, a unidade de habituao serve de referncia para tomada de deciso estratgica
nos procedimentos de crescimento e de poda de neurnios. Matematicamente, a unidade
de habituao de um neurnio de ndice i tem o funcionamento regido pela Equao 5.14:
wih (t) = wih (t 1) + ((1 wih (t 1)) wih (t 1)Si (t))
i = 1, 2, . . . , n (5.14)
onde define a taxa de recuperao da habituao, controla a velocidade de habituao, governa a variao da taxa de habituao e Si R1 um escalar que representa a
estimulao externa recebida pelo i-simo neurnio. A estimulao externa Si (t) no instante t a prpria atividade do i-simo neurnio do instante anterior t 1 (vide Eq. 5.31).
A Equao 5.14 derivada a partir da Equao 4.13 fixando z(t) = 1, para eliminar os
efeitos de longo prazo da unidade de habituao, e considerando wih (0) = 1.0, para especificar o estado inicial da unidade de habituao no valor de 1.0. A representao grfica
da Equao 5.14 ilustrada na Figura 5.2.
Unidade de Habituao ()
S(t)
+1
-1
+1
wh(t)
+
+1
+
-1
h
w (t-1)
z-1
Para maiores informaes a respeito da unidade de habituao de DeLiang Wang e Michael Arbib (BRISTOL; PURCELL; CAREW, 2003, p. 504507), consulte a Seo 4.1.2.5.
78
(5.15)
(5.16)
(5.17)
onde N1 {0} representa a idade da conexo. Esse valor tem como propsito determinar
o tempo de vida til da conexo. Caso o valor exceda o limiar imax a conexo removida.
A vizinhana topolgica de um neurnio i representada por Ni A. No tempo t, a
vizinhana topolgica Ni vale:
Ni = {nj A|(ni , nj ) C}
(5.18)
S(t)
(.)
wi h
wix
x(t)
ni
0/1
wiy
z(t)
idadeij
(.)
wj x
y(t)
wjy
wj
nj
0/1
79
5.3
O termo local refere-se restrio de localidade, no sentido de que a computao realizada por um
neurnio influenciada apenas por aqueles neurnios que esto em contato fsico com ele.
6
Para maiores detalhes sobre o experimento computacional do oito, consulte a Seo 6.3.1.
80
Processo de inicializao
(5.19)
(5.20)
81
5.3.2
Processo de competio
O processo de competio pode ser modelado de forma discreta ou contnua. Na verso discreta, o processo implementado com a ajuda de um juiz externo, que decide qual
neurnio considerado o vencedor, adotando algum critrio baseado numa mtrica de
distncia entre o vetor de entrada e o vetor de pesos dos neurnios. Na verso contnua,
o processo autnomo, envolvendo conexes realimentadoras para produzir excitao
central e inibio lateral, cujo comportamento dado por um sistema de equaes diferenciais. Por questes de simplicidade, utiliza-se a verso discreta de operao.
Para cada padro apresentado rede, as duas unidades mais prximas so selecionadas
conforme uma funo de distncia euclidiana. Como se deseja preservar a topologia do
espao de entrada, o padro apresentado rede no deve ser normalizado. Com isso,
o processo de escolha dos vencedores somente deve ser baseado na distncia euclidiana
entre o padro z e o vetor de pesos sinpticos wz de cada neurnio da rede.
v(t) = argmin{kz(t) wiz (t)k}
i = 1, 2, . . . , n
(5.21)
i 6= v,
(5.22)
i = 1, 2, . . . , n
(5.23)
j=1
onde T denota o vetor transposto. Assume-se que os componentes dos vetores z(t) e
wiz (t) so independentes (i.e., no-correlacionados).
A similaridade entre os vetores z e wiz definida como o recproco da distncia euclidiana. Quanto mais prximo entre si estiverem os seus elementos individuais, menor
ser a distncia euclidiana e, portanto, maior ser a similaridade entre eles. A distncia
euclidiana est relacionada com a projeo do vetor z sobre o vetor wiz . Para vetores
normalizados, quanto menor a distncia euclidiana kzwiz k maior ser o produto interno
entre os vetores z e wiz . Matematicamente, o produto interno entre os vetores z e wiz
definido como segue:
(z, wiz )
=z
wiz
m
X
z
zj wij
(5.24)
j=1
5.3.3
Processo de cooperao
82
Processo de adaptao
i = 1, 2, . . . , n
(5.26)
(5.27)
onde 0 < v < 1 a taxa de aprendizagem do neurnio vencedor v, 0 < n < 1 a taxa
de aprendizagem da vizinhana topolgica Nv centrada no neurnio vencedor v, hvi a
funo vizinhana (vide Eq. 5.25), e n o nmero de neurnios da rede no instante t.
As variveis v e n so dinmicas e no fazem parte dos parmetros livres da rede
neural. Da mesma forma que Berglund e Sitte (2006) calcularam o valor da taxa de
aprendizagem para uma rede de Kohonen convencional, o valor de v computado a cada
instante de tempo conforme a Equao 5.28:
kz(t) wvz (t)k
d(t)
d(t) = max (kz(t) wvz (t)k, d(t 1))
v (t) =
(5.28)
(5.29)
onde d(t) especifica uma distncia euclidiana normalizada entre o vetor de entrada z(t)
e o vetor de pesos sinpticos wvz (t) do neurnio vencedor v. Considera-se a condio
inicial d(0) = kz(0) wvz (0)k. proporo que a distncia kz(t) wvz (t)k se torna
demasiadamente grande, o valor calculado para a taxa de aprendizagem v (t) tende a
1, de modo que seja realizado um rpido ajuste na rede. No momento que a distncia
kz(t) wvz (t)k se torna pequena, o valor computado para v (t) sofre um decaimento
exponencial, tal que seja realizado um ajuste fino da rede. Ou seja, kz(t) wvz (t)k
d(t) v (t) 1. Em contrapartida, kz(t) wvz (t)k d(t) v (t) 0.
As duas variveis v e n controlam a velocidade com que os pesos sinpticos so
modificados e, portanto, especificam a velocidade com que a rede adquire um novo conhecimento. Considera-se para efeitos de ordenamento e convergncia que n seja pelo
menos uma ordem de magnitude menor que v , tal que n 1:
v
(5.30)
10
medida que o processo de aprendizagem se desenvolve, cada neurnio tem sua
sinapse de habituao, wh , ajustada. A modificao da fora da conexo wh realizada
n =
83
Figura 5.5: Ajuste de pesos sinpticos na rede neural proposta. Os nmeros reais indicam
os valores das sinapses de habituao de cada neurnio da rede. esquerda, configurao
da rede antes da atualizao sinptica. No centro, um padro z apresentado rede e o
primeiro e segundo neurnios vencedores, v e s, respectivamente, so selecionados.
direita, os vetores de pesos wz do neurnio vencedor v e da vizinhana topolgica Nv so
ajustados em direo ao padro z, as sinapses de habituao wh do neurnio vencedor v e
da vizinhana topolgica Nv so atualizadas em direo ao ponto de mximo habituao
(valor zero) e as sinapses de habituao dos demais neurnios da rede so modificadas
rumo ao estado inicial de no habituao (valor 1).
5.3.5
(5.32)
84
onde r o ndice da nova unidade a ser adicionada na rede, 0 < < 1 o critrio de
plasticidade e 0 < < 1 o critrio de novidade.
O critrio de plasticidade, , define a mxima similaridade admissvel para criar um
novo neurnio. A medida de mxima similaridade determina a granularidade da rede
(especificidade generalidade) e codificada por uma funo exponencial fixada numa
escala de 0 a 1 (i.e, exp(0) = 1 e exp() = 0). Se o vetor de pesos sinpticos wvz (t)
do neurnio vencedor casar suficientemente bem com o padro z(t), a atividade instantnea do neurnio vencedor ser prxima de 1; caso contrrio, a atividade instantnea do
neurnio vencedor ser prxima de zero. Dessa forma, quanto maior o valor estabelecido
para o parmetro de plasticidade, mais especfico ser o critrio de plasticidade e uma
quantidade maior de neurnios ser adicionada na rede. Ou seja, 1 kAk nmax .
O critrio de novidade, , determina uma medida de novidade baseada no valor da
sinapse de habituao do neurnio vencedor. A medida de novidade fixada numa escala
de 0 a 1 e, comumente, tem um valor bem pequeno e prximo de zero, i.e., 1.
proporo que um neurnio vence a competio ou participa da vizinhana topolgica do
neurnio vencedor, o peso de sua conexo sinptica wh tende a zero, que o ponto mximo de saturao; caso contrrio, tende a 1, que o estado de no habituao. Portanto,
o grau de novidade de um padro proporcional ao peso da conexo wvh do neurnio
vencedor. Dessa forma, quanto maior o valor fixado para o parmetro de novidade, mais
rapidamente os neurnios sero inseridos na rede.
O teste da Equao 5.32 pode ser interpretado da seguinte maneira: a criao de um
novo neurnio somente justificada se a similaridade entre o neurnio vencedor e o padro de entrada for menor que o critrio de plasticidade e, ao mesmo tempo, o padro de
entrada no for to novo como indicado pelo critrio de novidade. Como regra geral, a
rede cresce at um determinado critrio de parada ser satisfeito, que pode ser o tamanho
da rede em nmero de neurnios (nmax ) ou de conexes sinpticas (cmax ).
Se o critrio de plasticidade, , e o critrio de novidade, , forem satisfeitos uma nova
unidade de ndice r inserida entre o neurnio vencedor v e o padro espao-temporal z.
A Figura 5.6 ilustra o procedimento de insero de um novo neurnio na rede neural.
Figura 5.6: Insero de um novo neurnio na rede neural proposta. esquerda, configurao da rede antes da insero. No centro, um padro espao-temporal z apresentado
rede e o primeiro e segundo neurnios vencedores, v e s, respectivamente, so selecionados. direita, um novo neurnio de ndice r adicionado na rede entre o neurnio
vencedor v e o padro espao-temporal z e a conexo existente entre v e s realocada.
O vetor de pesos sinpticos wrz da nova unidade r simplesmente interpolado a partir
do vetor de pesos sinpticos wvz da unidade vencedora v e do padro espao-temporal z.
85
Inserindo o neurnio r entre o neurnio vencedor e o padro de entrada faz com a rede
tenha uma convergncia mais estvel, em relao incluso do neurnio r exatamente
sobre o padro de entrada que ocasionou o erro. O peso da conexo sinptica wrh da nova
unidade r feito igual a 1, ou seja, a unidade r inicializada no estado de no habituao:
wvz (t) + z(t)
2
wrh (t + 1) = 1.0
wrz (t + 1) =
(5.33)
(5.34)
(5.35)
(5.36)
Figura 5.7: Remoo de neurnios na rede neural proposta. Os nmeros reais indicam os
valores das sinapses de habituao de cada neurnio. esquerda, configurao da rede
antes da remoo de neurnios. No centro, os neurnios que tm o valor da sinapse de
habituao prximo de 1 so removidos da rede (e.g., wih 0.95). direita, os neurnios
que no possuem nenhuma conexo sinptica so removidos da rede (i.e., Ni = ).
7
O neurnio r somente elegvel para eliminao no instante de tempo subseqente ao qual foi inserido.
86
5.3.6
se i = s
0
idadevi (t) + 1 se i 6= s e ni Nv
idadevi (t + 1) =
(5.39)
idadevi (t)
caso contrrio
Uma conexo da rede neural eliminada se o seu contador de idade atingir certo
limiar (imax ). Portanto, a idia priorizar as conexes novas em detrimento de antigas.
Esta tcnica visa atualizar a cada instante a estrutura da rede, mantendo apenas conexes
que sejam teis sob o ponto de vista da preciso e preservao da topologia da rede:
C(t)/{(ni , nj )} se idadeij (t) > imax
(5.40)
C(t + 1) =
C(t)
caso contrrio
A Figura 5.8 elucida como a rede neural proposta faz o ajuste de conexes sinpticas.
Figura 5.8: Insero, atualizao e remoo de conexes sinpticas na rede neural proposta. Os nmeros inteiros representam os contadores de idade de cada conexo sinptica
da rede. esquerda, configurao da rede em um instante de tempo arbitrrio. No centro,
uma nova conexo adicionada na rede entre os neurnios vencedores v e s e o contador
de idade dessa conexo feito igual a zero. Ademais, as idades de todas as conexes
existentes entre o neurnio vencedor v e a sua vizinhana topolgica Nv , exceto neurnio
s, so incrementadas em uma unidade. direita, as conexes sinpticas que possuem
uma idade maior que o limiar imax so removidas da rede (e.g, imax = 50).
87
5.4
Resumo do algoritmo
Para entender melhor o mtodo proposto, no Algoritmo 5.1 pode-se observar, de uma
forma geral, todos os passos envolvidos na aprendizagem da rede neural.
Algoritmo 5.1: Algoritmo da rede neural proposta.
1 Determinar os parmetros nmax , cmax , imax , , , , , , e ;
2 Inicializar o arranjo A com apenas dois neurnios, n1 e n2 (Eq. 5.19);
3 Inicializar o conjunto de conexes sinpticas C (Eq. 5.20);
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
5.5
Notao matemtica
A seguir, apresenta-se uma listagem completa da notao matemtica adotada no presente trabalho. Por questes de convenincia, a notao matemtica est sintetizada em
trs tabelas. A Tabela 5.1 apresenta um resumo das funes da rede neural proposta.
Tabela 5.1: Resumo das funes da rede neural proposta.
Funo
Argumento
Imagem
Descrio
Equao
Figura
(.)
(.)
(.)
(x, y)
x
S
(wx , wy )
y
wh
5.2
5.5
5.13
5.4
5.1
5.2
88
Descrio
Equao
Z
X Z
YZ
A
C AA
x(t) Rm X
y(t) Rm Y
z(t) R2m Z
wix (t) Rm
wiy (t) Rm
wiz (t) R2m
wih (t) [0, 1]
Si (t) R1
Ni A
hij (t) {0, 1}
idadeij (t) N1 {0}
nv (t) A
ns (t) A
nr (t) A
v (t) [0, 1]
n (t) [0, 1]
d(t)
5.1
5.3
5.8
5.11
5.15
5.4
5.9
5.10
5.12
5.12
5.12
5.14
5.31
5.18
5.25
5.17
5.21
5.22
5.32
5.28
5.30
5.29
A Tabela 5.3 apresenta um resumo dos parmetros livres da rede neural proposta.
Tabela 5.3: Resumo dos parmetros da rede neural proposta.
Parmetro
Descrio
Equao
Valor padro
nmax
cmax
imax
5.11, 5.32
5.15, 5.35, 5.38
5.40
5.32
5.32
5.6
5.7
5.14
5.14
5.14
300
900
50
0.7
0.1
0.7
0.7
0.01
0.9
0.7
5.6
Anlise paramtrica
89
90
Durante a aprendizagem da rede neural proposta, cada vez que um vetor de pesos
modificado, a regio de Voronoi daquele neurnio e dos seus vizinhos imediatos tambm
varia. Como conseqncia da correo de pesos de um neurnio, vrios padres podem
passar de uma regio de Voronoi para outra adjacente. A estabilidade na representao da
rede ocorre quando as classes de Voronoi convergem para uma soluo estvel.
5.7
Inspirao biolgica
Uma discusso pormenorizada sobre as potenciais implicaes biolgicas da rede neural proposta no , obviamente, o objetivo do presente trabalho. Contudo, considerando-se
que parte dos avanos na rea da inteligncia artificial fruto da tentativa de se desvendar os segredos do sistema nervoso, no custa mencionar, ainda que de forma superficial,
algumas intrigantes relaes do modelo neural com evidncias biolgicas modernas.
importante observar aqui que, ainda que exista uma inspirao biolgica, no h qualquer
pretenso na modelagem exata de propriedades neurais. Com efeito, pode-se ver que a
proposta do algoritmo viola suposies usualmente feitas para redes neurais biolgicas.
A rede neural proposta faz parte de uma famlia de modelos conexionistas autoorganizveis, incorporando todos os mecanismos que so bsicos para a auto-organizao:
competio, cooperao e auto-amplificao. O conceito de auto-organizao de sistemas tem suas primeiras formulaes matemticas propostas nos primeiros anos do advento da Ciberntica8 (ASHBY, 1970). Ross Ashby citado como sendo provavelmente a
primeira pessoa a descrever o sistema nervoso como auto-organizado. Em seu livro intitulado Design for a Brain: The Origin of Adaptive Behavior, Ashby (1960) preocupou-se
com a noo bsica de que o comportamento adaptativo no inato mas, ao invs disso,
aprendido, e que por meio do aprendizado o comportamento de um animal ou sistema
muda em geral para melhor. O livro destaca que aspectos dinmicos de um organismo
tm forte analogia com o conceito de estabilidade de uma mquina. Hoje em dia, h muitas teorias que apiam a hiptese de auto-organizao do sistema nervoso (HAYKIN, 2001,
p. 430432). A questo bsica consiste em compreender como a ao de vrios elementos
simples (neurnios), em uma configurao inicial desordenada, d margem ao surgimento
espontneo (sem regras pr-programadas) de padres coerentes de comportamento.
A rede neural proposta tem como fonte de inspirao idias derivadas dos mapas corticais do crebro. Com o atual conhecimento da neurocincia possvel observar neurnios localmente ajustados em inmeras regies do sistema nervoso, isto , neurnios que
somente so ativados por uma faixa especfica de valores de estmulo. Como exemplo,
pode-se citar as clulas de orientao do crtex visual, que respondem seletivamente a
estmulos que so locais tanto na posio da retina quanto no ngulo da orientao do
objeto (LENT, 2002, p. 293). Em geral, populaes de clulas seletivas so arranjadas
em mapas corticais e a faixa de valores que ativa cada clula costuma ser restrita sua
posio no mapa. Erwin e colaboradores (1995) comprovaram que um mapa de caractersticas auto-organizvel capaz de explicar a formao de mapas computacionais no
crtex visual primrio do macaco. Admitindo-se certas suposies, os pesquisadores demonstraram que a aprendizagem hebbiana resulta em padres espaciais de orientao e
dominncia ocular que so notavelmente similares queles encontrados no macaco.
8
A palavra Ciberntica (do grego, kybernetik, piloto, no sentido utilizado por Plato para qualificar
a ao da alma) foi cunhada por Norbert Wiener em 1948 como o nome de uma nova cincia que visava
compreenso dos fenmenos naturais e artificiais atravs do estudo dos processos de comunicao e
controle nos seres vivos, nas mquinas e nos processos sociais (BITTENCOURT, 2001, p. 40).
91
5.8
Discusso
Neste captulo, a estrutura dos elementos e a dinmica dos processos da rede neural
proposta foram apresentados e discutidos. Nesse momento, talvez seja apropriado refletir
sobre estes elementos e questionar sobre as razes que levaram sua adoo na rede neural. A discusso conduzida considerando os seguintes itens: unidade de memorizao,
unidade de habituao e mecanismo de crescimento e poda de neurnios e conexes.
A formulao da rede neural proposta baseada no processamento de dados espaotemporais, isto , dados que esto relacionados de forma espacial e que possuem uma
correlao temporal entre si. Em geral, h duas formas de incluir o tempo na operao
de uma rede neural: atravs de laos de realimentao (recorrncia) ou por meio de memrias de curto prazo. Hoje em dia, j foi comprovado que redes neurais artificiais que
utilizam laos de realimentao no relacionam dados mais distantes que dez instantes de
tempo, o que limita consideravelmente a gama de problemas que pode ser solucionada
por tais redes (HOCHREITER; SCHMIDHUBER, 1997). Por essa razo, a memria de curto
prazo a pea-chave para incorporar o tempo no funcionamento de uma rede neural. No
presente trabalho, a memria de curto prazo aplicada sobre o sinal de entrada e no
rede propriamente dita, que permanece esttica. Basicamente, a memria captura a informao temporal contida no sinal de entrada e o neurnio insere esta informao em seus
prprios pesos sinpticos. Desta forma, existe uma evidente separao de papis: a rede
neural responsvel pela no-linearidade e a memria de curto prazo responsvel pelo
tempo.
9
A aplsia um animal invertebrado, similar a um caramujo marinho sem concha e muito abundante
nas costas do Pacfico Norte, que j foi amplamente utilizada para estudos de plasticidade sinptica em pesquisas cientficas. A aplsia possui um sistema nervoso simples e um repertrio comportamental reduzido,
como movimentos de encolhimento da cauda e da cabea, e a retirada da brnquia e do sifo. O sifo uma
protruso carnosa, situada acima da brnquia, que expele gua do mar e restos alimentares.
92
A memria de curto prazo utilizada uma sugesto de Moser (2004) e tem como funo realizar uma derivao e/ou integrao da informao de entrada. A diferenciao
til para eliminao da redundncia e da correlao espao-temporal, pois indica as mudanas do sinal ocorridas no passado, e a integrao til para eliminao de rudo, pois
representa o passado sob a forma de uma mdia. O funcionamento da memria exige
poucos recursos computacionais e pode ser de grande valia em problemas onde a soluo
ideal depende de uma representao baseada em mudanas e no em valores absolutos da
entrada. Segundo Moser (2004, p. 93), problemas temporais que possuem alta correlao temporal (e.g., sinais sensoriais de robs), com ou sem rudo, provavelmente podem
se aproveitar das informaes geradas pela memria. Em contrapartida, problemas com
baixa correlao temporal ou simblicos (e.g., cadeias de DNA) provavelmente se agravariam com o uso da memria. Em geral, a memria apresenta grande potencialidade
na rea da robtica, onde necessrio tratar diretamente o fluxo sensrio-motor de robs
de forma rpida e econmica. A representao gerada pela memria pode ser valiosa
para previso e identificao de eventos importantes, tais como: aproximao de objetos,
mudanas entre corredor e curvas, bifurcaes e ocluso de objetos.
At recentemente, a definio apropriada das dimenses de uma rede neural para uma
determinada tarefa geralmente envolvia a experincia do projetista em implementar procedimentos de tentativa-e-erro. A construo automtica da arquitetura da rede est se
tornando parte do processo de treinamento, atravs da explorao mais eficiente de informaes disponveis durante a aprendizagem. As redes neurais construtivas representam
uma das alternativas existentes para esta problemtica. No entanto, um dos pontos crticos determinar quando e em que posio uma nova unidade deve ser inserida. Na
maioria das redes construtivas, a velocidade de insero controlada por um parmetro
. O processo de encontrar um valor apropriado de no uma tarefa fcil e nem trivial.
Isso depende de mltiplos fatores, tais como a complexidade da distribuio e o volume
de dados de entrada. Por um lado, se o valor de for relativamente pequeno, possvel
criar uma maior quantidade de unidades, porm o tempo para adaptar as novas unidades
estrutura da rede existente significativamente reduzido, gerando assim redes visivelmente deformadas. Por outro lado, se o valor de for grande, a quantidade de unidades
criadas em um perodo de tempo menor, entretanto, o tempo de treinamento da rede
consideravelmente maior. De maneira geral, o parmetro deve ser definido de acordo
com a distribuio do conjunto de amostras do espao de entrada. Contudo, em muitos
casos, pouca ou nenhuma informao est disponvel acerca do tamanho e da distribuio
desse conjunto. Logo, a definio de um valor apropriado para um fator que depende,
em grande parte, da experincia emprica do projetista da rede.
Diferentemente da maioria das redes construtivas que necessitam especificar previamente uma taxa de crescimento , na rede neural proposta o procedimento de insero de
novos neurnios realizado de forma automtica e em qualquer instante de tempo, sem
que isto obrigue a reinicializao do processo de aprendizagem. Esse procedimento retira
o nus do projetista em ter que especificar a priori as dimenses da rede neural, alm
de tornar possvel resolver tarefas que exijam aprendizado em tempo real, como, por
exemplo, tarefas de horizonte infinito. Sob o ponto de vista de utilidade em problemas
dinmicos, a rede neural proposta oferece uma boa soluo para o dilema da estabilidadeplasticidade, apontado por Stephen Grossberg em 1976 (HAYKIN, 2001, p. 30), e faz
uso eficiente de memria se comparada com outras redes equivalentes (i.e., economia de
neurnios e conexes). O mecanismo que governa o crescimento da rede adiciona um
novo neurnio se e somente se dois critrios de vigilncia forem satisfeitos: o critrio de
93
5.9
Consideraes do captulo
Este captulo props um novo modelo de rede neural artificial, denominado GTSOM
(do acrnimo em ingls para Growing Temporal Self-Organizing Map). O modelo de rede
neural artificial baseado em trs pilares fundamentais, a saber:
Auto-organizao, por meio da competio global, cooperao local e auto-amplificao seletiva;
Representao temporal, atravs de uma memria de curto prazo diferenciadora e
integradora aplicada externamente rede; e
Aprendizado construtivo, via insero e poda de neurnios e conexes sinpticas.
94
A integrao desses trs princpios em uma rede neural inovadora e tambm muito
vantajosa pois potencializa e facilita o desenvolvimento de inmeras aplicaes, como
tarefas de horizonte infinito e de dimenso espao-temporal. A Tabela 5.4 apresenta um
resumo das principais caractersticas do modelo neural proposto.
Tabela 5.4: Resumo das principais caractersticas da rede neural proposta.
Aspecto
Caracterstica
Descrio
Auto-organizao
Competio
Processo global realizado por um juiz externo. O juiz identifica os neurnios que melhor representam o vetor de entrada conforme uma funo de distncia euclidiana.
Processo local baseado numa funo de vizinhana. A funo de vizinhana determina a cada instante a vizinhana
topolgica formada em torno do neurnio vencedor.
Processo de adaptao seletiva confinado vizinhana do
neurnio vencedor. O ajuste realizado a nvel sinptico e
computado atravs da tcnica de Berglund e Sitte (2006).
No-hierrquica. Os neurnios so organizados de forma
direta em uma nica camada computacional.
Externa. A memria aplicada sobre os itens da seqncia
e no rede propriamente dita, que permanece esttica.
Representao temporal de origem simblica (local), ao invs de numrica (esparsa).
Diferenciadores e integradores aplicados na seqncia temporal x(t). Unidade de memorizao de Moser (2004).
Rede com topologia dinmica baseada na estrutura intrnseca do espao de entrada X .
Rede com dimensionalidade varivel inicializada com dois
neurnios conectados entre si.
Automtico. Neurnios so inseridos atravs dos critrios
de plasticidade e de novidade. Conexes sinpticas so inseridas atravs da tcnica CHL (MARTINETZ, 1993).
Automtico. Neurnios so removidos quando se tornam
isolados ou suprfluos. Conexes sinpticas so removidas
atravs de um contador de idade.
Estacionrio (e.g., tarefas de quantizao vetorial) e noestacionrio (e.g., tarefas de segmentao temporal).
Cooperao
Adaptao
Representao
temporal
Topologia
Posio
Representao
Natureza
Aprendizado
construtivo
Arranjo
Dimenso
Modo de Insero
Modo de Poda
Aplicao Alvo
O prximo captulo relata os resultados de diferentes experimentos de avaliao aplicados rede neural proposta, considerando tarefas simples de classificao de padres e
segmentao de seqncias temporais. Para fins de validao da rede, tambm so apresentadas comparaes qualitativas e quantitativas com outros trabalhos similares.
95
RESULTADOS EXPERIMENTAIS
6.1
Metodologia
A metodologia adotada para realizar as experimentaes consiste em inicialmente utilizar simulaes em computador para gerar dados e, em um segundo momento, proceder
a uma anlise qualitativa e quantitativa dos dados gerados, comparando-os a resultados
previamente evidenciados na literatura. O interesse principal determinar as caractersticas e peculiaridades do modelo neural proposto, identificar suas principais propriedades
e limitaes e verificar a influncia de seus parmetros no processo de aprendizagem.
A implementao dos experimentos foi feita dentro de um ambiente prprio de simulao robtica1 na linguagem de programao Python verso 2.4, compilada no sistema
operacional Debian GNU/Linux verso 3.1 com kernel 2.6.15 e executada em um processador Intel Pentium M 750 de 1.86Ghz. Para todos os experimentos descritos a seguir,
foram fixados os seguintes parmetros para o modelo:
nmax = 300. O parmetro nmax especifica o nmero mximo de neurnios (nodos)
permitido na rede. Valores prximos a esse so comumente adotados na literatura.
cmax = 900. O parmetro cmax estabelece a quantidade mxima de conexes sinpticas (arestas) permitida na rede. Valores prximos a esse so normalmente
utilizados na literatura (i.e., cmax = 3 nmax ).
imax = 50. O parmetro imax define o limiar de idade aceitvel para as conexes
sinpticas (arestas). Esse o valor mais amplamente utilizado na literatura e fornece
um bom desempenho nas simulaes.
Cada um dos testes relatados foi repetido pelo menos dez vezes com diferentes inicializaes, exceto onde explicitamente indicado, e selecionado o resultado mais comum.
A pequena quantidade de pocas de treinamento escolhida foi suficiente para constatar os resultados, pois o erro de quantizao da rede cai rapidamente e estabiliza j
1
96
nas primeiras pocas de treinamento. A rede treinada com um vetor de entrada ndimensional x, cujos elementos x1 , . . ., xn esto uniformemente distribudos na regio
{(0 < x1 < 1); . . . ; (0 < xn < 1)}. Para inicializar a rede, os pesos sinpticos de todos
os neurnios so escolhidos de um conjunto aleatrio restrito ao intervalo fechado [0, 1].
6.2
Quantizao vetorial
Nesta seo so mostradas simulaes bastante elementares para ilustrar o comportamento da rede neural proposta e algumas de suas propriedades bsicas (e.g., generalizao, preservao de topologia) em problemas de classificao de padres espaciais. Em
particular, a rede neural submetida tarefa de quantizao vetorial. Nesta tarefa, o propsito discretizar otimamente um espao contnuo de entrada, de modo que cada vetor
de entrada seja atribudo a um vetor prottipo que melhor represente as suas caractersticas. Um prottipo armazenado como pesos sinpticos de um neurnio.
Para a realizao desta tarefa, os seguintes valores foram fixados para os parmetros
da rede: = 1.0, = 1.0, = 0.01, = 0.9 e = 0.7. Com = 1.0, as duas
integraes da unidade de memorizao so anuladas resultando em y(t) = 0, o que
faz com que o vetor de contexto calculado pela memria no seja levado em considerao
pela rede (vide Figura 6.1). Com = 0.01, = 0.9 e = 0.7, a unidade de habituao
atinge rapidamente o seu ponto mximo de saturao e se recupera lentamente de um
estado qualquer at o ponto inicial de no habituao. Como ser visto adiante, a rede tem
competncia para identificar os mais variados agrupamentos espaciais e tem a capacidade
de preservar a topologia subjacente do espao de entrada. Ao longo da discusso, ser
analisada a relao entre as distncias intra- e inter-cluster atravs da tcnica de Voronoi.
S(t)
(.)
wih
z(t)
wix
x(t)
ni
idadeij
(.)
y(t)
0/1
wjx
wj
nj
0/1
A Figura 6.2a mostra a distribuio uniforme de dados usada para treinar a rede neural.
A Figura 6.2b apresenta os valores dos vetores de pesos sinpticos, traados como pontos
97
Figura 6.2: Simulao de uma distribuio de dados em forma de quadrado com = 0.75
e = 0.1. Ao todo so 1000 amostras uniformemente distribudas dentro da rea em
cinza claro. (a) Distribuio de densidade dos dados de entrada. (b) Condio da rede
aps 10 pocas de treinamento. (c) Diagrama de Voronoi resultante.
A Figura 6.3 mostra o mapeamento obtido pela rede neural para uma distribuio de
dados em forma de crculo. Os padres de treinamento esto uniformemente distribudos
no interior da regio do crculo. Conforme esperado, o mapeamento obtido tende a aproximar a distribuio dos dados de entrada. Nesta simulao foi fixado o valor 0.8 para o
parmetro de plasticidade, . Isto promove a insero de um maior nmero de neurnios
em relao a simulao anterior. Como pode ser observado na Figura 6.3b, um total de
treze neurnios foram includos na rede para realizar o mapeamento de caractersticas.
Figura 6.3: Simulao de uma distribuio de dados em forma de crculo com = 0.8 e
= 0.1. No total, so 1000 amostras uniformemente distribudas sobre a rea em cinza
claro. (a) Distribuio de densidade dos dados de entrada. (b) Condio da rede aps 10
pocas de treinamento. (c) Diagrama de Voronoi resultante.
98
A Figura 6.4 ilustra o mapeamento obtido pela rede neural para uma distribuio de
dados em forma de tringulo. Os padres de treinamento esto uniformemente distribudos dentro da rea triangular. Pode-se perceber que a rede tambm captura a topologia
intrnseca da distribuio uniforme na entrada. Nesta simulao foi fixado o valor de 0.85
para o parmetro de plasticidade, . Isto causa a insero de um nmero ainda maior de
neurnios em relao a simulao anterior. No total, dezoito neurnios foram adicionados
na rede a fim de realizar o mapeamento de caractersticas.
Figura 6.4: Simulao de uma distribuio de dados em forma de tringulo com = 0.85
e = 0.1. Ao todo so 1000 amostras uniformemente distribudas ao longo da rea em
cinza claro. (a) Distribuio de densidade dos dados de entrada. (b) Condio da rede
aps 10 pocas de treinamento. (c) Diagrama de Voronoi resultante.
Em todas as simulaes, a rede inicializada com apenas dois neurnios. Em um
primeiro momento, no intuito de preencher o espao de entrada, novos neurnios so automaticamente adicionados na rede. A insero de neurnios realizada conforme os
valores fixados para os parmetros de plasticidade, , e de novidade, . Em seguida, os
neurnios criados so adaptados estrutura subjacente do espao de entrada, de modo
a minimizar o erro mdio de quantizao da rede (vide Eq. 3.11). Adicionalmente, as
conexes sinpticas includas em demasia so removidas da rede e as restantes so reorganizadas. A distribuio estatstica dos neurnios no mapa se aproxima daquela dos
vetores de entrada, exceto nas reas situadas na extremidade do espao de entrada (e.g.,
vide Figura 6.2b). A m representao das regies limites do espao resulta do efeito de
borda. Neurnios localizados nas bordas do arranjo possuem vizinhos somente por um
lado e, por esse motivo, tendem a ser puxados por eles para dentro do espao.
Durante a fase de aprendizagem, os valores dos pesos sinpticos da rede saem de
uma configurao inicial desordenada para uma configurao ordenada. Pode-se fazer
aqui uma analogia da evoluo do aprendizado da rede com uma malha elstica (do ingls elastic mesh) que se desdobra medida que a aprendizagem avana. Em particular,
a malha elstica dinmica (i.e., com a incluso e remoo de neurnios) e no tem
uma estrutura fixa (e.g., retangular, hexagonal, entre outras). Aps um perodo suficiente
de aprendizagem (10 pocas), os valores dos pesos sinpticos e a configurao geomtrica das conexes sinpticas se tornam estveis. A estabilidade na representao da rede
ocorre quando o erro mdio de quantizao da rede suficientemente pequeno e, deste
modo, o valor calculado para a taxa de aprendizagem do neurnio vencedor, v , tende a 0.
A rede neural proposta no sofre de um problema que surge ocasionalmente na aplicao do algoritmo de Kohonen convencional. Este problema representado graficamente
99
na Figura 6.5 e consiste na criao de um mapa dobrado devido a uma falha de ordenao topolgica. A criao de um mapa dobrado pode ser vista como uma forma de um
estado metaestvel mnimo local do processo de ordenao topolgica. Um estado
metaestvel consiste em uma configurao dos pesos sinpticos da rede com defeito topolgico, ou seja, configuraes em que relaes de vizinhana so violadas. Defeitos
topolgicos ocorrem, por exemplo, se a largura inicial da funo vizinhana muito pequena ou decresce muito rapidamente. Erwin, Obermayer e Shulten (1992) demonstraram
que estados metaestveis surgem com muito mais freqncia quando o algoritmo usa uma
funo vizinhana no convexa como, por exemplo, a funo retangular.
Figura 6.5: Falha de ordenao topolgica observada em uma rede de Kohonen convencional com 25 neurnios dispostos regularmente em 5 linhas 5 colunas. (a) Distribuio
dos dados de entrada (1000 amostras). (b) e (c) Valores iniciais e finais, respectivamente,
dos pesos sinpticos da rede. O arranjo de neurnios encontra-se em uma configurao
metaestvel e, neste caso, a proximidade espacial dos neurnios violada.
A falha no processo de ordenao topolgica no ocorre na rede neural proposta, uma
vez que a funo vizinhana dinmica. A tcnica empregada para criar, remover e
ajustar as conexes sinpticas baseada no mtodo de aprendizado hebbiano competitivo (MARTINETZ; SCHULTEN, 1994). Esse mtodo determina que a vizinhana topolgica
de um neurnio de ndice i o conjunto de neurnios que tem conexo sinptica direta
com ele no instante de tempo t, i.e., Ni . Ou seja, a vizinhana no tem uma estrutura fixa
e nem constante durante o processo de aprendizagem.
Apesar da aparente vantagem de utilizar uma vizinhana dinmica, existe uma grande
limitao intrnseca nesta abordagem no que se refere reduo de dimensionalidade. Em
uma rede de Kohonen convencional, o mapa de caractersticas freqentemente capaz de
formar uma representao topolgica correta quando a dimenso do espao de entrada
maior que a dimenso do espao de sada. Na rede neural proposta, a construo do mapa
de caractersticas tende a seguir a estrutura intrnseca do espao de entrada e, por essa
razo, o algoritmo no realiza uma reduo de dimensionalidade. No entanto, as conexes
entre neurnios podem criar tanto malhas regulares como diversas figuras geomtricas e,
por isso, uma maior capacidade de aprendizado conferida rede neural.
O procedimento de insero de novos neurnios na rede realizado de forma automtica e em qualquer instante de tempo, sem que isto obrigue a reinicializao do processo
de aprendizagem. O mecanismo que governa o crescimento da rede adiciona um novo
neurnio se e somente se dois critrios de vigilncia forem satisfeitos: o critrio de plasticidade, 0 < < 1, e o critrio de novidade, 0 < < 1 (vide Figura 6.6). As trs
100
Figura 6.6: (a) Nmero de neurnios em funo do parmetro de plasticidade. (b) Nmero
de neurnios em funo do parmetro de novidade. (c) Erro mdio quadrado em funo do
parmetro de plasticidade. (d) Erro mdio quadrado em funo do parmetro de novidade.
Nesse momento, talvez seja apropriado refletir sobre a influncia dos parmetros de
vigilncia na convergncia da rede neural. No intuito de ter-se uma noo de quais as
repercusses de atribuir um valor pequeno ou grande para esses dois parmetros, foram
realizadas diversas simulaes computacionais variando-se os valores do parmetro de
novidade {0.1, 0.25, 0.5} e do parmetro de plasticidade {0.5, 0.7, 0.9}. O resultado est sintetizado na Figura 6.6. Cada combinao treinada com o mesmo conjunto
de pesos aleatrios iniciais e o mesmo conjunto de 300 amostras uniformemente distribudas, de modo que os resultados do experimento possam ser comparados diretamente.
O nmero mnimo de neurnios permitido preestabelecido em 2. O nmero mximo de
neurnios governado pelo parmetro nmax e, neste caso, vale 300.
A partir da Figura 6.6 pode-se concluir que o parmetro de plasticidade, , est diretamente relacionado com o nmero de neurnios inseridos na rede. Quanto maior o valor
fixado para o parmetro de plasticidade, mais especfico ser o critrio de plasticidade e
uma quantidade maior de neurnios ser adicionada na rede (i.e., 1 |A| nmax ).
Em contrapartida, o parmetro de novidade, , no afeta significativamente a quantidade
de neurnios criados, mas, por outro lado, determina o momento em que novos neurnios
so adicionados rede (vide Tabela 6.1). Quanto maior o valor fixado para o parmetro
101
Plasticidade
0.10
0.25
0.50
0.75
1.00
0.7
0.7
0.7
0.7
0.7
8
9
11
10
11
1700
1564
1123
484
229
Na Figura 6.6, o fato de que o erro mdio quadrado final de cada curva no varia
significativamente no intervalo de e entre as curvas sugere uma superfcie de erro
bem comportada (i.e., relativamente suave) para o problema. Como regra geral, a busca
por valores adequados para os parmetros de vigilncia guiada por tentativa-e-erro, aps
alguma experimentao inicial com os dados e a rede neural. Contudo, as curvas de
aprendizagem experimentais mostradas na Figura 6.6 sugerem as seguintes tendncias:
1. Com prximo de 1, um nmero elevado de neurnios adicionado na rede e pode
ocorrer um fenmeno chamado sobre-ajuste (do ingls overfitting), tal que a rede
neural perde sua capacidade de generalizao;
2. Utilizando menor que 0.5, a rede cria um nmero bem reduzido de neurnios e
pode ocorrer um fenmeno chamado sub-ajuste (do ingls underfitting), tal que a
rede se torna rgida demais para lidar com variados padres de entrada;
3. Com prximo de 1, o tempo para adaptar os novos neurnios estrutura da rede
existente significativamente reduzido, gerando redes visivelmente deformadas; e
4. Com prximo de zero, a quantidade de neurnios criados em um perodo de tempo
menor, entretanto, o tempo de treinamento da rede consideravelmente maior.
6.2.2
A Figura 6.7 apresenta o mapeamento obtido pela rede neural para a distribuio de
densidade de duas espirais concntricas2 . O problema de classificao de padres das duas
espirais, originalmente proposto por Alexis Wieland, um benchmark da rea de mtodos de classificao e, at recentemente, tem recebido ateno especial da comunidade
cientfica por se tratar de um problema no-linearmente separvel3 de difcil soluo.
Este problema de classificao consiste em determinar em qual das duas espirais entrelaadas pertence um determinado ponto do espao. Cada espiral representa uma classe
(ou categoria) e cada neurnio representa o prottipo de uma determinada classe. Na
verso no-supervisionada do problema de classificao das duas espirais, o propsito
determinar se a rede capaz de preservar a topologia subjacente do espao de entrada.
2
Esta distribuio de dados em forma de duas espirais concntricas j foi utilizada em experimentaes com outras redes neurais auto-organizveis construtivas, dentre elas GDCS (BRUSKE; SOMMER, 1995),
GNG (KUNZE; STEFFENS, 1995) e GWR (MARSLAND; SHAPIRO; NEHMZOW, 2002). As amostras foram obtidas atravs do repositrio oficial de redes neurais artificiais da Universidade de Carnegie Mellon (CMU).
3
Um problema de classificao no-linearmente separvel aquele que possui padres em determinadas
posies do espao de caractersticas que no podem ser separados simplesmente por uma linha reta.
102
Figura 6.7: Simulao de uma distribuio de dados em forma de duas espirais com
= 0.7 e = 0.1. (a) Distribuio de densidade de duas espirais concntricas. Ao todo
so 960 amostras. (b) Condio da rede aps 10 pocas de treinamento.
6.2.3
Figura 6.8: Simulao de uma distribuio multimodal de dados com = 0.85 e = 0.1.
(a) Distribuio de entrada (1000 amostras distribudas em quatro regies desconexas).
(b) Condio da rede aps 10 pocas de treinamento. (c) Diagrama de Voronoi resultante.
A simulao acima pode ser compreendida como uma tarefa de identificao de agrupamentos (clusterizao). A identificao de agrupamentos uma tarefa descritiva que
procura agrupar dados usando a similaridade dos valores de seus atributos como fator de
deciso quanto sua pertinncia num entre vrios agrupamentos possveis. Este processo
realizado de forma no-supervisionada, pois a similaridade entre os atributos uma
caracterstica intrnseca dos dados, no necessitando de um arquivo de treinamento com
classes pr-definidas. A Figura 6.9 ilustra o comportamento da rede nesta tarefa.
103
Figura 6.9: Identificao de agrupamentos com nmax = 5. (a) Modelo gerador com cinco
agrupamentos. O smbolo representa o centride de um determinado agrupamento. (b)
Os cinco prottipos calculados pela rede neural se aproximam dos cinco centrides do
modelo gerador. (c) Diagrama de Voronoi resultante.
6.2.4
104
Figura 6.11: (a) Erro de quantizao da rede (EMQ=0.00559). (b) Nmero de neurnios
em funo do tempo. O nmero mnimo de neurnios permitido na rede fixado em 2. O
nmero mximo de neurnios governado pelo parmetro nmax e, neste caso, vale 300.
Como regra geral, o algoritmo proposto remove neurnios no-representativos (ou
suprfluos) para a distribuio de entrada e adiciona novas unidades em posies mais
significativas para a diminuio do erro de quantizao da rede. Um neurnio considerado suprfluo caso no vena a competio por um longo perodo de tempo. Esse perodo
definido de forma implcita atravs da escolha das taxas de sensibilizao e habituao
da sinapse de habituao do neurnio (parmetros e , respectivamente). A taxa de
sensibilizao faz aumentar paulatinamente o valor da sinapse de habituao at o valor
1. J a taxa de habituao faz diminuir gradativamente o valor da sinapse de habituao
at o valor zero. medida que o processo de aprendizagem se desenvolve, cada neurnio
tem sua sinapse de habituao, wh , ajustada, de acordo com os valores fixados para e .
Por conveno, um neurnio de ndice i removido da rede se a sua sinapse de habituao
ultrapassar o valor 0.95. A Figura 6.12 apresenta o valor do peso da sinapse de habituao
de um neurnio arbitrrio no decorrer do processo de aprendizagem.
105
6.2.5
Esta distribuio no-estacionria de dados j foi utilizada em experimentaes com outras redes neurais auto-organizveis construtivas, tais como GNG com fator de utilidade (FRITZKE, 1997a), GWR (MARSLAND; SHAPIRO; NEHMZOW, 2002) e, mais recentemente, DASH (HUNG; WERMTER, 2003).
106
6.3
Este experimento de segmentao de seqncias temporais j foi feito com outras redes neurais autoorganizveis temporais, dentre elas TDSOM (KANGAS, 1990), rede de Arajo e Barreto (ARAJO; BARRETO,
2002) e, mais recentemente, rede de Kohonen com memria diferenciadora-integradora (MOSER, 2004).
107
A seqncia temporal da Figura 6.15 gerada a partir das Equaes 6.1 e 6.2 para
1 t 200. Os 200 pontos obtidos so submetidos rede neural em uma determinada
ordem, de tal maneira que a seqncia possa ser interpretada como a trajetria de um rob
mvel ou agente de software realizada dentro de um ambiente. Nesta seqncia existe
um nico ponto de ambigidade espacial, posicionado na coordenada (0.5, 0.5). Os dois
instantes em que a seqncia temporal passa por este ponto so t = 50 e t = 150.
t
4 + 0.5
= 0.5 sin
200
t
2 + 0.5
= 0.5 cos
200
x1
x2
(6.1)
(6.2)
A rede neural foi submetida a 10 pocas de aprendizagem, cada qual com 200 iteraes. A cada instante, a camada de entrada da rede recebe um padro de entrada espaotemporal z(t) de dimenso 4-por-1, tal que z(t) = [x1 (t), x2 (t), y1 (t), y2 (t)]T . Na Figura 6.16 apresentado o resultado obtido pela rede proposta de parmetros nmax = 20,
cmax = 60, imax = 50, = 0.7, = 0.1, = 0.7, = 0.7, = 0.01, = 0.9 e = 0.7.
108
Ambigidade na representao
No
No
No
No
No
No
No
No
No
No
100%
0.0
0.01286
0.01096
0.01151
0.01172
0.01050
0.01139
0.01205
0.01089
0.01278
0.01001
0.011467
0.0009264
Na Figura 6.17 ilustrado o resultado obtido por uma rede de Kohonen convencional
com 20 neurnios dispostos num mapa circular unidimensional de parmetros = 1.5
e = 1. Para aumentar a convergncia e a estabilidade dos resultados, a largura da vizinhana topolgica, , tem seu valor reduzido linearmente at 1.0 e o valor da taxa de
aprendizagem, , decai monotonicamente at 0.0 conforme o grfico da Figura 6.17b. Em
todas as 10 tentativas realizadas a rede de Kohonen convencional falhou na representao
da posio de ambigidade e, em mdia, obteve um valor quadrado do erro de quantizao igual a 1.9118 102 e desvio padro igual a 0.11374 102 . importante ressaltar
que o erro de quantizao da rede de Kohonen no leva em conta a distncia temporal,
6
A normalizao dos dados de sada da unidade de memorizao realizada em tempo real por uma
constante multiplicativa. A determinao da amplitude ideal para o sinal incidente feita a partir da anlise
de sua funo kernel (vide Eq. 4.12). Para maiores detalhes, consulte (MOSER, 2004, p. 6566).
109
mas apenas a componente espacial do vetor de entrada toma parte neste erro. A representao da seqncia temporal classifica os dois instantes de tempo com o mesmo neurnio
prottipo (vide neurnio de ndice 7 na Figura 6.17d). A atividade na sada da rede sofre
saltos abruptos no decorrer da seqncia e, por isso, o mapa de caractersticas no reflete
espacialmente a contigidade temporal da seqncia. Esta ambigidade de representao existe independente dos parmetros escolhidos para e , pois a rede carece de uma
unidade de memorizao (e.g., memria de curto prazo ou laos de realimentao).
110
Convergencia e classificacao
(%)
SA
R
M
G
T
SO
N
ET
IN
D
M
SO
M
M
SD
SO
SO
C
SO
R
Figura 6.18: Freqncias de convergncia e de classificao de cada rede neural autoorganizvel na tarefa de segmentao temporal. A barra da esquerda indica a porcentagem
de convergncia dos neurnios prottipos, ou seja, a freqncia de representao estvel
da seqncia temporal. A barra da direita aponta a porcentagem de acerto na classificao
da seqncia temporal, isto , a freqncia de identificao da posio de ambigidade.
(EMQ)
0.05
Com exceo da rede neural proposta que realiza a insero e a remoo de neurnios
ao longo do processo de aprendizagem, a representao temporal das redes temporais
sensvel configurao inicial dos pesos sinpticos. O melhor resultado de classificao
foi obtido pela rede neural proposta, pois em 100% dos experimentos houve convergncia
estvel e no ambgua de representao da seqncia temporal e o valor mdio do erro
mdio quadrado de quantizao foi o mais baixo de todos (1.001 102 ). A Figura 6.19
apresenta o erro mdio quadrado de quantizao de cada rede temporal estudada.
0.04
0.03
0.02
M
T
G
D
N
R
SA
SO
ET
IN
D
M
SO
M
SD
SO
M
C
SO
M
M
SO
R
K
M
0.01
Figura 6.19: Erro mdio quadrado de quantizao de cada rede neural auto-organizvel
na tarefa de segmentao temporal. A linha vertical sobre cada barra representa a margem
de erro, isto , o desvio padro para mais e para menos em torno da mdia.
111
No intuito de verificar a estabilidade da representao gerada pela rede neural aplicouse a seqncia temporal em forma de 8 com perturbaes de rudo uniforme no intervalo
[0.1, 0.1], translao e rotao. Como ser analisado a seguir, a classificao da seqncia temporal ruidosa invariante s perturbaes testadas, principalmente a perturbaes
de rudo e translao da seqncia. Os resultados obtidos nas Figuras 6.20, 6.21 e 6.22
so semelhantes aos ilustrados na Figura 6.16, isto , a rede no apresenta defeitos topolgicos na formao do mapa de caractersticas e a posio de ambigidade classificada
com neurnios prottipos distintos.
A Figura 6.20 apresenta os resultados de classificao da seqncia temporal com
rudo de distribuio uniforme no intervalo [0.1, 0.1]. A aplicao do rudo sobre a
seqncia original 8 no prejudica a classificao final, pois a propriedade de reduo
de rudo por integrao temporal da unidade de memorizao garante invarincia na
segmentao da seqncia ruidosa e a propriedade de preservao de topologia da rede
assegura a corretude no mapeamento de caractersticas . Neste problema especfico, a
tolerncia mxima de rudo uniforme compreende o intervalo de 0.25 a 0.25. Para valores fora desta faixa, a rede neural gera um mapa de caractersticas bastante distorcido e
classifica erroneamente a seqncia temporal. A tolerncia a rudo de fundamental importncia para problemas robticos, pois os sinais provindos dos sensores e os comandos
enviados aos atuadores dos robs geralmente so medidas imprecisas dotadas de rudo.
112
A Figura 6.21 apresenta os resultados de classificao da seqncia temporal com perturbao de translao. Como pode ser observado na Figura 6.21, a classificao obtida
completamente invariante translao e bastante similar representao da seqncia
temporal sem translao da Figura 6.16. A invarincia translao, tambm denominada
na literatura por invarincia ao deslocamento, uma propriedade que pode ser aplicada
em uma srie de problemas robticos relacionados ao processamento de imagens e sinais. Nestes problemas, deseja-se que alguma caracterstica do padro apresentado seja
extrada ou reconhecida, independente da translao ao longo de uma dimenso. Por
exemplo, considere um filtro para deteco de bordas em uma imagem. extremamente
desejvel que o filtro efetue a mesma operao sobre todos os pontos da imagem, independente se uma parte da imagem foi transladada.
113
rizar os objetos fsicos presentes no meio pois uma pequena rotao pode levar ocluso
ou ao aparecimento de uma parte substancial do objeto em questo. Categorizar objetos
significa realizar distines entre diferentes tipos de objetos e reconhecer um mesmo objeto sob diferentes ngulos de viso. Em um mecanismo de software ou hardware sem
qualquer robustez rotao, os objetos para serem reconhecidos tm que estar exatamente
no mesmo local e na mesma orientao com que foram inicialmente observados.
Figura 6.22: Simulao de uma distribuio de dados em forma de 8 com rudo de rotao. (a) Condio da rede aps 10 pocas de aprendizagem. (b) Espao de representao
gerado pela unidade de memorizao . (c) Erro de quantizao da rede (EMQ=0.01803).
(d) Atividade na sada da rede na ltima poca.
6.3.2
Para finalizar, considera-se uma generalizao do problema de classificao da seqncia temporal em forma de 8, onde todos os pontos da seqncia tm ambigidade
espao-temporal. A seqncia definida sobre uma circunferncia de raio 0.5 e centro (0.5, 0.5), conforme ilustra a Figura 6.23. Os 50 pontos igualmente espaados da
circunferncia so submetidos rede neural em uma determinada ordem, de tal forma
que a seqncia possa ser interpretada como a trajetria de um rob mvel ou agente de
software realizada dentro de um ambiente. O rob pode percorrer o circuito, partindo de
um ponto inicial simbolizado por , em dois sentidos opostos: horrio (vide Figura 6.23a)
ou anti-horrio (vide Figura 6.23b). Por conveno, o sentido anti-horrio (contrrio aos
ponteiros de um relgio) adotado como sentido negativo. No total, a simulao compreende 20 pocas de aprendizagem, cada qual com 50 iteraes. Entre a primeira e a quinta
114
Figura 6.23: Ilustrao da seqncia temporal definida sobre uma circunferncia de raio
igual a 0.5 e centro igual a (0.5, 0.5). No total, so 50 amostras uniformemente distribudas ao longo da circunferncia. O smbolo representa o ponto inicial da seqncia
e a seta indica o sentido de rotao do fluxo: (a) horrio (t = {0..249; 500..749}) ou (b)
anti-horrio (t = {250..499; 750..999}).
Nesta tarefa, o objetivo principal verificar se a rede neural proposta capaz de identificar o sentido de rotao da seqncia. Os seguintes valores foram fixados para os
parmetros do modelo: nmax = 50, cmax = 150, imax = 20, = 0.7, = 0.1, = 0.6,
= 0.4, = 0.05, = 0.9 e = 0.7. A sada da unidade de memorizao foi multiplicada por 2 para compensar a reduo de amplitude do sinal e aumentar a importncia
da informao de contexto. Cabe ressaltar que no houve nenhuma seleo exaustiva de
parmetros e que outros valores para os parmetros do modelo geram resultados semelhantes aos relatados a seguir. A Figura 6.24 traz os resultados.
115
Note que o subespao de entrada contextual Y da Figura 6.24 tem raio 0.3 e centro
(0, 0). A distino entre os dois sentidos de rotao feita com base na magnitude e, principalmente, no sinal do vetor de contexto y. Mais especificamente, a distino realizada
de acordo com o sinal da componente y2 do vetor de entrada contextual y(t). Por exemplo, no incio da apresentao da seqncia temporal no sentido de rotao horrio, o vetor de entrada espao-temporal z vale [1.0, 0.5, 0.09358, 0.27831] e, no sentido de rotao
anti-horrio, o vetor de entrada espao-temporal z igual a [1.0, 0.5, 0.09833, 0.28678].
Na Figura 6.26 pode-se verificar que os dois sentidos de rotao da seqncia temporal
foram mapeados com neurnios distintos para toda extenso de amostras (1 t 1000).
Por um lado, o sentido de rotao horrio da seqncia temporal foi classificado pelos
neurnios de ndice 0 a 11 (vide Figura 6.26b). Por outro lado, o sentido de rotao
anti-horrio foi identificado pelos neurnios de ndice 12 a 22 (vide Figura 6.26d). Com
este resultado, conclui-se que a rede neural resultante da aplicao do algoritmo proposto
identifica casos extremos de ambigidade espacial como este.
Nos experimentos realizados com as redes neurais auto-organizveis temporais do Captulo 4, verificou-se que um nico agrupamento de neurnios foi criado para representar
toda a extenso de amostras (1 t 1000). Os dois sentidos de rotao da seqncia
temporal foram mapeados com os mesmos neurnios prottipos (vide Figura 6.27).
importante ressaltar que esta ambigidade de representao existe independente dos parmetros escolhidos, pois se deve principalmente a rgida estrutura topolgica da rede que
impossibilita desmembrar o arranjo bidimensional de neurnios em dois agrupamentos.
116
Figura 6.26: (a) Neurnios inseridos entre a primeira e a quinta poca (rotao horria).
(b) Atividade na sada da rede na quinta poca. (c) Neurnios adicionados entre a quinta
e a dcima poca (rotao anti-horria) (d) Atividade na sada da rede na dcima poca.
6.4
Consideraes do captulo
117
7.1
Sobre o trabalho
118
potencialidade na rea da robtica, onde necessrio tratar diretamente o fluxo sensriomotor de robs de forma rpida e econmica. Segundo Moser (2004, p. 93), problemas
temporais que possuem alta correlao temporal (e.g., sinais sensoriais de robs), com ou
sem rudo, provavelmente podem se aproveitar das informaes geradas pela memria.
Em contrapartida, problemas com baixa correlao temporal ou simblicos (e.g., cadeias
de DNA) provavelmente se agravariam com o uso da memria. Cabe ressaltar que a
arquitetura da rede neural modular. Por essa razo, quando desejado, pode-se facilmente
substituir a memria diferenciadora-integradora por outra unidade de memorizao.
Diferentemente da maioria das redes construtivas que necessitam especificar previamente uma taxa de crescimento, a arquitetura da rede neural proposta construda automaticamente ao longo do processo de aprendizagem. Uma unidade de habituao regula
tanto o crescimento quanto a poda do nmero de neurnios da rede neural. As conexes sinpticas so criadas, removidas ou ajustadas de acordo com o mtodo de aprendizado hebbiano competitivo. Por essa razo, a rede neural proposta oferece uma boa
soluo para o dilema da estabilidade-plasticidade, apontado por Stephen Grossberg em
1976 (HAYKIN, 2001, p. 30), e faz uso eficiente de memria se comparada com outras
redes equivalentes (i.e., economia de neurnios e de conexes sinpticas).
A srie de experimentos realizados neste trabalho comprovou o potencial do modelo
neural proposto. Os cenrios abrangeram tarefas simples de classificao de padres
puramente espaciais e segmentao de seqncias temporais. Os resultados preliminares obtidos no Captulo 6 demonstraram a eficincia do modelo neural proposto frente
s arquiteturas conexionistas existentes e foram considerados bastante satisfatrios com
relao aos parmetros avaliados. No entanto, os experimentos certamente no foram
exaustivos e diversas outras aplicaes poderiam ser testadas, como, por exemplo, tarefas
de condicionamento e formao de conceitos em agentes de software inteligentes.
A nosso ver, a grande dificuldade e, ao mesmo tempo, a principal contribuio deste
trabalho residiu em integrar os princpios de auto-organizao, representao temporal e
aprendizado construtivo em uma arquitetura neural de maneira vivel e eficiente soluo
de determinados problemas tericos/prticos de agentes de software inteligentes. Dentre
as limitaes da rede neural proposta pode-se incluir a inexistncia de uma estratgia
de reduo de dimensionalidade, que uma caracterstica inerente de redes neurais que
preservam a topologia do espao de entrada (topology-representing networks).
7.2
Trabalhos futuros
119
agentes de software situados e corporificados. Acredita-se que a informao temporal e o aspecto incremental do mapa de caractersticas auto-organizvel podem
ser de grande utilidade na descoberta de conceitos em ambientes no-estacionrios.
Ampliar os experimentos computacionais descritos no Captulo 6 com tarefas robticas de condicionamento. A idia principal utilizar o modelo neural proposto
para extrair as informaes perceptivas do agente de software e, juntamente com
um sistema de valores previamente definido pelo projetista, associ-las com aes
apropriadas por exemplo, condicionar o agente a identificar uma fonte de alimentao como comestvel ou venenosa atravs do sistema olfativo, independentemente do sistema gustativo. Acredita-se que o mapa de caractersticas pode ser
de grande valia para associar um evento sensrio temporal com um evento motor
caracterstico. Em meados da dcada de 1990, Zrehen e Gaussier (1994) argumentaram que mapas topolgicos so extremamente teis na aprendizagem robtica e,
mais recentemente, uma srie de modelos neurais ontognicos foi proposta na literatura (HARTER; KOZMA; GRAESSER, 2001) com o intuito de resolver tarefas de
condicionamento clssico (e.g., vide (HARTER; KOZMA, 2004)).
Elaborar um controlador interno para ajustar em tempo real os parmetros de vigilncia do modelo. O aprendizado do modelo neural proposto contnuo e relativamente estvel, entretanto, bastante parametrizvel. A influncia dos parmetros
na aprendizagem extremamente dependente das propriedades do ambiente e dos
sensores do agente de software. No h ainda um algoritmo ou uma heurstica para
determinar valores adequados para os parmetros de plasticidade, , e de novidade,
, do modelo. Logo, a escolha desses valores baseada na experincia emprica
do projetista. Uma pesquisa interessante seria propor um mecanismo que calculasse em tempo real e de forma automtica valores timos para os parmetros de
vigilncia, assegurando uma operao realmente autnoma do agente de software.
Modificar a estrutura da rede neural proposta com a adio de uma segunda camada
computacional de neurnios a fim de resolver tarefas de aproximao de funes
e de reconhecimento estatstico de padres. A primeira camada de neurnios seria responsvel por identificar de maneira no-supervisionada um conjunto razoavelmente pequeno de padres, no qual est concentrado o contedo de informao essencial dos dados brutos de entrada. J a segunda camada computacional
de neurnios teria um esquema de aprendizagem supervisionada pela tcnica de
quantizao vetorial por aprendizagem (LVQ) ou atravs de funes de base radial
(RBF) para classificar os padres extrados ou aproximar as funes. Acredita-se
que este mecanismo de aprendizagem semi-supervisionada pode ser utilizado para
solucionar uma ampla classe de problemas robticos por exemplo, estimar o valor
de estados futuros nunca antes visitados com uma preciso razovel.
120
REFERNCIAS
AHRNS, I.; BRUSKE, J.; SOMMER, G. On-line Learning with Dynamic Cell Structures.
In: INTERNATIONAL CONFERENCE IN ARTIFICIAL NEURAL NETWORKS,
1995. Proceedings... Paris, Frana, 1995. p. 141146.
ALAHAKOON, D.; HALGAMUGE, S. K.; SRINIVASAN, B. Dynamic Self-Organizing
Maps with Controlled Growth for Knowledge Discovery. IEEE Transactions on Neural
Networks, New York, v. 11, n. 3, p. 601614, 2000.
ALPAYDIN, E. GAL: Networks that grow when they learn and shrink when they forget.
International Journal of Pattern Recognition and Artificial Intelligence, Berkeley,
v. 8, n. 1, p. 391414, 1994.
ARAJO, A. F. R.; BARRETO, G. de A. Context in Temporal Sequence Processing:
A Self-Organizing Approach and Its Application to Robotics. IEEE Transactions on
Neural Networks, New York, v. 13, n. 1, p. 4557, 2002.
ASHBY, W. R. Design for a Brain: The Origin of Adaptive Behaviour. 2nd ed. London:
Chapman & Hall, 1960. 286 p.
ASHBY, W. R. Uma introduo ciberntica. 2nd ed. So Paulo: Perspectiva, 1970.
345 p.
BARONE, D. Da fsica ao neurnio artificial. In: BARONE, D. et al. (Ed.). Sociedades
Artificiais: A Nova Fronteira da Inteligncia nas Mquinas. Porto Alegre: Bookman,
2003. p. 93126.
BARRETO, G. D. A.; ARAJO, A. F. R. Time in Self-Organizing Maps: An Overview
of Models. International Journal of Computer Research, Huntington, v. 10, n. 2, p.
139179, 2001.
BASTOS, E. N. F. Um estudo sobre sistemas sensrio-motores biologicamente
plausveis. 2005. 53 p. Trabalho Individual (Mestrado em Cincia da Computao)
Instituto de Informtica, UFRGS, Porto Alegre.
BERGLUND, E.; SITTE, J. The Parameterless Self-Organizing Map Algorithm. IEEE
Transactions on Neural Networks, New York, v. 17, n. 2, p. 305316, 2006.
BITTENCOURT, G. Inteligncia Artificial: Ferramentas e Teorias. 2. ed. Florianpolis:
Ed. da UFSC, 2001. 362 p.
121
122
123
ENGEL, P. M. Redes Neurais Artificiais: Uma Viso Geral das suas Potenciais
Aplicaes. In: FRUM DE INTELIGNCIA ARTIFICIAL DA REGIO SUL, 2.,
2001. Anais... Canoas: Universidade Luterana do Brasil, 2001. 1 CD-ROM.
ENGEL, P. M. Conceitos bsicos da Inteligncia Computacional. Notas de aula da
disciplina CMP121 Redes Neurais do Mestrado em Cincia da Computao, UFRGS.
2005.
ERWIN, E.; OBERMAYER, K.; SCHULTEN, K. Models of Orientation and
Ocular Dominance Columns in the Visual Cortex: A Critical Comparison. Neural
Computation, [S.l.], v. 7, p. 425486, 1995.
ERWIN, E.; OBERMAYER, K.; SHULTEN, K. Self-Organizing Maps: Ordering,
Convergence Properties and Energy Functions. Biological Cybernetics, [S.l.], v. 67, p.
4755, 1992.
FAHLMAN, S. E.; LEBIERE, C. The Cascade-Correlation Learning Architecture. In:
TOURETZKY, D. S. (Ed.). Advances in Neural Information Processing Systems.
Denver: Morgan Kaufmann, 1990. v. 2, p. 524532.
FIESLER, E. Comparative Bibliography of Ontogenic Neural Networks. In:
INTERNATIONAL CONFERENCE ON ARTIFICIAL NEURAL NETWORKS,
ICANN, 1994, Sorrento, Italy. Proceedings... London: Springer-Verlag, 1994. p.
793796.
FIKES, R. E.; NILSSON, N. J. Strips: a New Approach to the Application of Theorem
Proving to Problem Solving. Menlo Park, CA: Stanford Research Institute, 1971.
FLORES, R. Z.; SCHLER, J. ao P. S. Estudos sobre o pensamento evolutivo. In:
EL-HANI, C. N.; VIDEIRA, A. A. P. A evoluo dos algoritmos mentais. Rio de
Janeiro: [s.n.], 2004.
FLORIAN, R. V. Autonomous artificial intelligent agents. 2003. Monografia Center
for Cognitive and Neural Studies, Cluj-Napoca, Romania.
FRANKLIN, S.; GRAESSER, A. Is it an Agent, or Just a Program?: a Taxonomy
for Autonomous Agents. In: ECAI, 1996. Intelligent Agents III, Agent Theories,
Architectures, and Languages: proceedings. Berlin: Springer-Verlag, 1997. p. 2135.
(Lecture Notes in Computer Science, v. 1193).
FRITZKE, B. Growing Cell Structures a Self-Organizing Network in k Dimensions.
In: ALEKSANDER, I.; TAYLOR, J. (Ed.). Artificial Neural Networks. Amsterdam,
Netherlands: North-Holland, 1992. p. 10511056.
FRITZKE, B. Growing Cell Structures A Self-organizing Network for Unsupervised
and Supervised Learning. Neural Networks, New York, v. 7, n. 9, p. 14411460, 1994.
FRITZKE, B. Growing Grid a self-organizing network with constant neighborhood
range and adaptation strength. Neural Processing Letters, Dordrecht, v. 2, n. 5, p. 913,
1995.
124
FRITZKE, B. A Growing Neural Gas Network Learns Topologies. In: TESAURO, G.;
TOURETZKY, D. S.; LEEN, T. K. (Ed.). Advances in Neural Information Processing
Systems. Cambridge, MA: MIT Press, 1995. v. 7, p. 625632.
FRITZKE, B. Growing Self-organizing Networks Why? In: EUROPEAN
SYMPOSIUM ON ARTIFICIAL NEURAL NETWORKS, 4., 1996. Proceedings...
Brussels: D-Facto, 1996. p. 6172.
FRITZKE, B. A self-organizing network that can follow non-stationary distributions.
In: INTERNATIONAL CONFERENCE ON ARTIFICIAL NEURAL NETWORKS,
ICANN, 1997. Proceedings... London: Springer, 1997. p. 613618.
FRITZKE, B. Some Competitive Learning Methods. [S.l.], 1997. 43 p. Disponvel em:
<http://www.neuroinformatik.ruhr-unibochum.de/ini/VDM/research/gsn/JavaPaper/>.
Acesso em: 21 out. 2007.
FRITZKE, B. Unsupervised ontogenic networks. In: FIESLER, E.; BEALE, R. (Ed.).
Handbook of Neural Computation. [S.l.]: Institute of Physics Publishing and Oxford
University Press, 1997. p. C2.4:1C2.4:16.
GIBSON, J. J. The Ecologial Approach to Visual Perception. Boston: Houghton
Mifflin, 1979. 336 p.
GIROSI, F.; JONES, M.; POGGIO, T. Regularization theory and neural networks
architectures. Neural Computation, Cambridge, v. 7, p. 219269, 1995.
GUAZZELLI, A. Do ART 1 ao Fuzzy ARTMAP: Um Estudo Sobre Modelos de Redes
Neurais Artificiais Baseados na Teoria da Adaptao Ressonante (ART). 1992. 61 p.
Trabalho Individual (Mestrado em Cincia da Computao) Instituto de Informtica,
UFRGS, Porto Alegre.
HAGENBUCHNER, M.; SPERDUTI, A.; TSOI, A. C. A Self-Organizing Map for
Adaptive Processing of Structured Data. IEEE Transactions on Neural Networks, New
York, v. 14, n. 3, p. 491505, 2003.
HARTER, D.; KOZMA, R. Aperiodic Dynamics for Appetitive/Aversive Behavior
in Autonomous Agents. In: INTERNATIONAL CONFERENCE ON ROBOTICS &
AUTOMATION, 2004. Proceedings... [S.l.: s.n.], 2004. v. 3, p. 21472152.
HARTER, D.; KOZMA, R. Chaotic Neurodynamics for Autonomous Agents. IEEE
Transactions on Neural Networks, New York, v. 16, n. 3, p. 565579, May 2005.
HARTER, D.; KOZMA, R.; GRAESSER, A. C. Models of Ontogenetic Development for
Autonomous Adaptive Systems. In: ANNUAL CONFERENCE OF THE COGNITIVE
SCIENCE SOCIETY, 23., 2001. Proceedings... [S.l.: s.n.], 2001. p. 405410.
HAYKIN, S. Redes Neurais: Princpios e Prticas. 2. ed. So Paulo: Bookman, 2001.
HEBB, D. The Organization of Behavior. [S.l.]: John Wiley, 1949.
HOCHREITER, S.; SCHMIDHUBER, J. Long Short-Term Memory. Neural
Computation, Cambridge, v. 9, n. 8, p. 17351780, 1997.
125
126
127
128
129
130
APNDICE A
A.1
Introduo
A simulao computacional constitui um passo muito importante na concepo de sistemas inteligentes, pois no h custos para aquisio, implantao e manuteno mecnica
ou eltrica de robs. Ademais, o controle sobre os parmetros da simulao total, no
h acoplamento entre tempo real e tempo simulado, e os experimentos podem ser repetidos quantas vezes for necessrio, permitindo uma melhor anlise dos dados. No entanto,
apesar dos pontos positivos destacados, sabido que os simuladores necessariamente realizam simplificaes em relao aos fenmenos reais envolvidos, o que impossibilita
retratar fidedignamente a dinmica de um rob fsico e de um ambiente realstico.
Como regra geral, a escolha entre utilizar ambientes de simulao ou construir robs
fsicos deve ser guiada pelas necessidades de projeto e pelo propsito da pesquisa (PFEIFER; SCHEIER, 2001, p. 107). Caso o objetivo seja estudar assuntos tericos (e.g., integrao sensrio-motora, formao de conceitos, navegao autnoma, etc.), os simuladores, via de regra, so ferramentas apropriadas por proporcionar um caminho mais rpido,
econmico e eficaz na obteno e avaliao de alguns resultados experimentais. Esse o
foco do presente trabalho e, portanto, optou-se em utilizar um simulador robtico.
Hoje em dia, existe uma grande disponibilidade de aplicaes comerciais para simulao robtica. A maioria fornece solues altamente poderosas, entretanto, com um
altssimo custo associado, tipicamente na ordem de centenas a milhares de dlares (e.g.,
Webots de Michel, 2004). Muitos pesquisadores e entusiastas da robtica, que no dispem de recursos financeiros, tentam suprir suas necessidades criando seus prprios simuladores alternativos (e.g., The Pyro Toolkit desenvolvido por Blank et al., 2006). A
maior parte deles concebida sob a Licena Pblica Geral (do ingls General Public License, ou simplesmente GNU GPL), para que outras pessoas possam usufruir e contribuir
para seu desenvolvimento. Contudo, o resultado desses esforos costuma ser restrito a um
domnio especfico de aplicao e, geralmente, so de difcil uso e expanso.
Em virtude das razes supracitadas, uma nova ferramenta de simulao robtica foi
desenvolvida dentro do contexto deste trabalho. O objetivo principal proporcionar uma
131
plataforma simples, flexvel e de fcil uso, para viabilizar a modelagem, construo e simulao de agentes de software situados e corporificados. A ferramenta foi implementada
na linguagem de programao Python verso 2.4, a interface grfica foi codificada em Qt
verso 3.3.6 e a gerao de grficos foi realizada atravs da interface pylab da biblioteca
matplotlib verso 0.87. Nenhum componente avanado da linguagem Python foi usado,
sendo possvel modificar e executar a ferramenta em qualquer sistema operacional que
possuir a verso bsica do Python instalada (e.g., Windows, Unix e Macintosh OS X).
A.2
Ambiente de simulao
132
Durante a simulao possvel interagir com as propriedades e operaes da ferramenta de uma maneira fcil e rpida, conforme apresentado na Figura A.4. Todas as propriedades e os objetos da simulao (e.g., robs, recursos) so acessveis por intermdio
da varivel sim. Por exemplo, o comando r = sim.getRobot(name=RedPioneer)
atribui varivel r a instncia de rob cujo nome de identificao RedPioneer.
Figura A.4: Interface interativa para controle da simulao por linha de comando
133
A.3
A ferramenta de simulao robtica fornece uma interface de programao de aplicativos (API) para a concepo de novos robs, dispositivos, recursos e ambientes. A
interface de software contm uma srie de rotinas, funes e classes, acessveis somente
por programao e na linguagem de programao Python, que permite realizar um aprimoramento da ferramenta e uma expanso de suas funcionalidades bsicas.
A.4
Robs
Na distribuio bsica da ferramenta so disponibilizados dois modelos de robs, juntamente com um conjunto de sensores e efetuadores robticos. As caractersticas dos dois
modelos de robs fazem meno s possibilidades encontradas em robs reais, a fim de
reduzir o investimento na etapa de transio da simulao para o experimento prtico. A
seguir, so descritos em detalhes os principais componentes oferecidos pela ferramenta.
O modelo de rob Pioneer disponibilizado pela ferramenta de simulao robtica
(vide Figura A.5) inspirado na famlia de robs mveis Pioneer desenvolvido pela empresa MobileRobots. A Figura A.6 apresenta uma fotografia do Pioneer 3-DX. O rob
Pioneer 3-DX equipado com uma cmera de vdeo, um apanhador de objetos com dois
graus de liberdade, dois grupos de oito sonares e um conjunto de sensores de coliso. O
rob est montando sobre um eixo de duas rodas independentes que o permite fazer movimentos de translao e rotao. Para maiores informaes acerca da famlia de robs
Pioneer, consulte (MOBILEROBOTS, 19952006).
134
A.5
Sensores robticos
Nome
Descrio
Proprioceptivo
Battery-energy-level
Odometry
Exteroceptivo
Bumper-sensor
Sonar-sensor
Light-sensor
Floor-sensor
Global-positioning-system
Camera-sensor
Gripper-sensor
135
O sistema de viso do rob composto por duas etapas distintas: aquisio e processamento visual. Em um primeiro momento, o rob obtm uma imagem visual a partir de
sua cmera de viso bidimensional (vide Figura A.12). Aps, a unidade de controle do
rob pode aplicar inmeros filtros na imagem original (vide Figura A.13), a fim de resolver determinadas tarefas no ambiente (e.g., encontrar esferas da cor verde). O mdulo de
processamento de imagens foi adquirido do toolkit robtico Pyro (BLANK et al., 2006).
136
fr
t
on
-l e
ft
fr o
nt
- ri
16
left
left-all
gh
right
15
8
14
ba
ck
-le
right-all
9
13
ft
10
12
c
ba
11
rig
k-
ht
back
back-all
9
10
front-all
front
left
ht
fr o
rig
n t-
n t-
lef
fr o
right
8
left-all
right-all
6
back
ba
ck
lef t
back-all
ck
ba ht
rig
137
A.6
Efetuadores robticos
Efetuador robtico um termo genrico que define qualquer componente que permita
a um rob exercer alguma ao no ambiente, como, por exemplo, deslocar-se a algum
local ou manusear determinados tipos de objetos. Na literatura, o termo efetuador robtico
muitas vezes confundido com o termo atuador robtico. Atuador robtico meramente
o mecanismo que habilita o efetuador a realizar a sua ao e tipicamente so motores
eltricos, pistes hidrulicos e pistes pneumticos. Os robs simulados da ferramenta de
simulao proposta dispem de trs efetuadores, conforme est descrito na Tabela A.2.
Tabela A.2: Efetuadores robticos presentes nos robs simulados Pioneer e Khepera
Nome
Descrio
Wheel-motors
Dois motores independentes acoplados s rodas do rob que o possibilita realizar movimentos de translao (para frente e para trs) e rotao (giro no
sentido horrio e anti-horrio) ao mesmo tempo
Um controlador de cmera de vdeo que permite o rob ampliar e modificar o
ngulo de viso da imagem captada
Uma garra com uma nica articulao (em ingls, Degree of Freedom, DOF)
para o rob conseguir manipular os objetos presentes no ambiente
Camera-control
Gripper-control
A.7
Consideraes do apndice