Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Introduo
2
Introduo
Podemos classificar os problemas computacionais em
Tratveis, tambm chamados de polinomiais
Podem ser resolvidos por algoritmos determinsticos.
No polinomiais
Intratveis Algoritmos no determinsticos
Soluo determinstica invivel 3
Introduo
5
Metaheurstica
Propriedades e Estratgias que guiam o processo de busca;
caractersticas
das Explorao eficiente do espao de busca - solues timas ou
7
Algoritmos bio-inspirados
Algoritmos Genticos
Algoritmos Programao Gentica
Evoluo Gramatical
evolucionrios Estratgias Evolucionrias
Programao Evolucionria
8
Algoritmos evolucionrios
Inspirados na teoria de evoluo de Darwin;
Evoluo:
mudana das caractersticas (genticas) de
Algoritmos
evolucionrios
Inteligncia
coletiva
Algoritmos bio-
inspirados
Redes Neurais
Sistemas
Imunolgicos 9
Algoritmos evolucionrios
Evoluo caracterizada basicamente por um
processo constitudo de 3 passos
[VON ZUBEN, 2005]
Inteligncia
coletiva
Algoritmos bio-
inspirados
Redes Neurais
Sistemas
Imunolgicos 10
Algoritmos bio-inspirados
Algoritmos Genticos
Algoritmos Programao Gentica
Evoluo Gramatical
evolucionrios Estratgias Evolucionrias
Programao Evolucionria
11
Algoritmos bio-inspirados
Algoritmos Genticos
Algoritmos Programao Gentica
Evoluo Gramatical
evolucionrios Estratgias Evolucionrias
Programao Evolucionria
12
Redes Neurais Artificiais
14
Redes Neurais
Principais partes de um neurnio
Dentritos, que recebem os estmulos;
15
Neurnio
17
Redes Neurais Artificiais
Estruturade processamento, composta por um
nmero de unidades interconectadas, onde cada
18
Redes Neurais Artificiais
Circuito
composto por uma grande quantidade de
unidades simples de processamento inspiradas no
19
Redes Neurais Artificiais
Propriedades particulares de uma RNA:
Aprender;
20
Histrico resumido
1943:McCulloch e Pitts - construo de uma
mquina baseada ou inspirada no crebro humano;
22
Redes Neurais Artificiais
Operao de uma unidade de processamento
Sinais so apresentados entrada;
23
Redes Neurais Artificiais
Funo matemtica F(x)
Relaciona um vetor de entrada com um vetor de sada;
Assume-se que F(x) totalmente desconhecida
24
Redes Neurais Artificiais
Funo matemtica F(x)
A funo pode ser extremamente complexa;
Relaes no lineares, etc.
25
Redes Neurais Artificiais
Fontes de informao sobre o problema
Conjunto finito de pares de entrada {xi, di}
Exemplo:
2 137.2
14.9 22.8
... 26
Redes Neurais Artificiais
Fontes de informao sobre o problema
Aps a apresentao das entradas conhecidas x e sadas d, a ideia que a
rede seja capaz de retornar uma sada d para uma entrada x desconhecida;
x d
27
Neurnio artificial
34
Multilayer Perceptron (MLP)
O nmero de ns de entrada determinado pela
dimenso do espao de observao;
35
Processos de aprendizado
Seo conhecimento est armazenado nos pesos das
conexes, ento o processo de aprendizagem
corresponde a identificar um conjunto apropriado de
36
Processos de aprendizado
37
Processos de aprendizado
O algoritmo de treinamento mais utilizado em MLP
o Backprogation
Baseia-se na aprendizagem por correo de erros.
38
Processos de aprendizado
40
Processos de aprendizado
O aprendizado feito por meio de um processo
iterativo de ajuste dos pesos sinpticos
41
Processos de aprendizado
A RNA se baseia nos dados para extrair um modelo
geral
Fase de aprendizado deve ser rigorosa e verdadeira, a
42
Sentido direto
Clculo
ativaes e sadas de todos os neurnios da
camada oculta e de sada;
43
Sentido direto
Clculo
ativaes e sadas de todos os neurnios da
camada oculta e de sada.
Funo Logstica
Tangente Hiperblica
45
Sentido direto
Deve repetir para a camada de sada, considerando a
sada da camada intermediria como entrada
Funo Logstica
Tangente Hiperblica
46
Funes de ativao
Funo Identidade Funo Degrau Funo Logstica
49
Sentido inverso
Clculo
dos gradientes locais e o ajuste dos pesos de
todos os neurnios da camada intermediria e sada
Gradientes locais camada sada
Camada Sada
57
Treinamento
Pontos importantes
Vetor de entrada;
Vetor de sada;
58
Multilayer Perceptron (MLP)
Hecht-nielsen
afirma que apenas com uma camada
oculta j possvel calcular a funo arbitrria
qualquer (camada oculta deve ter 2i+1 neurnios);
Kudricky
observa que, para cada 3 neurnios da 1
camada oculta era preciso 1 da segunda camada;
Lippmann afirma que a 2 camada oculta deve ter o
dobro de neurnios da camada de sada
59
Processos de aprendizado
De50 a 90% do total de dados devem ser usados
para o treinamento da RNA
Escolhidos aleatoriamente, a fim de que a rede
60
Referncias
ZUBEN, F. V. Rede MLP: Perceptron de Mltiplas TATIBANA, C. Y., KAETSU, D. Y. Redes Neurais
Camadas
ZADROZNY, B. Mtodos Estatsticos de
CRUZ, A. Redes Neurais Artificiais: Multi Layer Aprendizagem
Perceptron
BACKES, A. Redes Neurais
61