Sei sulla pagina 1di 12

Autoencoders

Jones Granatyr
Autoencoders
Esquerda para direta
Self supervised learning

Nós escondidos

Codificação Decodificação
Entradas (nós visíveis) Saídas (nós visíveis)
Autoencoders Sólida: +1
Pontilhado: -1

Emprego

Filhos

Casado

Carro
Autoencoders Sólida: +1
Pontilhado: -1

Emprego
0 (0 * 1) + (0 * -1) + (1 * 1) + (0 * -1) = 1

Filhos 0 1

Casado 1 1
(0 * -1) + (0 * -1) + (1 * 1) + (0 * 1) = 1
Carro 0
Autoencoders Sólida: +1
Pontilhado: -1

(1 * 1) + (1 * -1)

0 0
Emprego
0 (0 * 1) + (0 * -1) + (1 * 1) + (0 * -1) = 1 (1 * -1) + (1 * 1)

Filhos 0 1 0 0
(1 * 1) + (1 * 1)
Casado 1 1 2 1
(0 * -1) + (0 * -1) + (1 * 1) + (0 * 1) = 1
Carro 0 (1 * -1) + (1 * -1)

-2 0
Autoencoders – mais neurônios
Sparse autoencoder
• Um dos mais populares
• Usa uma técnica de regularização para prevenir overfitting
• Não usa todos os neurônios da camada oculta (valores pequenos)
Denoising autoencoder
• Modifica os valores da camada de entrada, alterando alguns
neurônios para o valor zero
• Quando os pesos são atualizados, a camada de saída é comparada
com os valores originais para obter o valor do erro
Contractive autoencoder
• Adiciona uma função de penalidade quando os pesos são atualizados
Deep autoencoder

Fonte: https://skymind.ai/wiki/deep-autoencoder
Convolutional autoencoder

Fonte: https://www.semanticscholar.org/paper/Deep-Clustering-with-Convolutional-Autoencoders-Guo-Liu/b4c8c77fe8ac7aa07a9e41827955d38a24f6137f
Conclusão