Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
❚ Introducción
● Entrenamiento
❚ Elementos:
● Conjunto de entradas, xj
● Pesos sinápticos, wi
a
● Función de activación: w1·x1+
w2·x2 + ... + wn·xn = a y
● Función de transferencia: y
= F (w1·x1+ w2·x2 + ... + wn·xn )
● Sigmoide
● Gaussiana.
RNA de una capa
y1
a2
y2
an
yn
RNA Multicapa
❚ Redes multicapa: capas en cascada.
❚ Tipos de capas:
● Entrada
● Salida
● Oculta
❚ Unahistoria
RNA espasada.
un aproximador general
de funciones no lineales.
Entrenamiento I
❚ Tipos de entrenamiento:
● Supervisado.
❚ Algoritmo supervisado:
① Aplicar patrón de entrada y calcular salida de la red
③ Si salida incorrecta
❚ Generalización del algoritmo del perceptrón para sistemas con entradas y salidas
continuas.
❚ Se define: δ =T-A= (salidas deseadas - salidas de la red).
❚ Minimiza una función de coste basada en ese vector de error:
● ∆ i =δ lr xi
● Wi (n+1) = Wi (n) + ∆ i
● Razón de aprendizaje lr
● Si las neuronas son lineales=> un único
mínimo
Redes Neuronales Lineales.
❚ Descripción:
● Tras inicializar los pesos de forma aleatoria y con valores pequeños,
aceptable.
❚ Detalles:
● SSE: E=Σ Ep=Σ (ypk -opk )2
❚ Pasos:
● Inicialización:
❘ Construcción de la red.
❘ Inicialización aleatoria de pesos y umbrales (-0.5, 0.5)
❘ Criterio de terminación (número máximo de iteraciones,…).
❘ Contador de iteraciones n=0.
● Fase hacia delante:
❘ Parálisis de la red.
❘ Mínimos locales.
Algoritmo Backpropagation IV
● Underfitting.
● Memorización o Sobreaprendizaje.
● Caracterización de la red. ¿Cuantas capas, cuantas
neuronas en cada capa,…?
Redes Neuronales no supervisadas I
❚ Autoorganizativas: durante el proceso de aprendizaje la red debe
descubrir por si misma regularidades o categorías => la red debe
autoorganizarse en función de las señales procedentes del entorno.
❚ Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80)
❚ Características:
● Red competitiva
❚ Aprendizaje:
● Inicialización de los pesos wij
❚ Detección de patrones.
❚ Filtrado de señales
❚ Segmentación de datos
❚ Control
❚ Identificación.
Redes Neuronales en
identificación de sistemas
Identificación de sistemas
❚ Pasos:
● Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...)
LS,RLS,IV,...)
● Validación (exactitud, adecuación de uso)
RNA que representan el tiempo
● Control de sistemas.
❚ Redes dinámicas:
● Respuesta a:
● No problemas de realimentación
❚ Desventajas
● Información útil debe “caber” en la ventana temporal
u(t)
u(t-1)
u(t-2) ym (t)
…
u(t-m)
y(t-1)
y(t-2)
…
Redes neuronales recurrentes
valores fijos
● Algoritmo de aprendizaje “ve”
❘ Jordan
❘ Elman
❚ Redes neuronales
recurrentes:
● Todas las neuronas
interconectadas
● Computacionalmente
costoso
Estructuras neuronales para la
identificación
❚ Ventajas:
● Puede aproximar cualquier sistema no-lineal
arbitrariamente bien
● No recurrente.
❚ Desventajas:
● Vector de regresión puede ser grande
● No se modela el ruido
yt
yˆ (t )
g yt yˆ (t ) = g (θ , ϕ (t )),
ut
ŷ t yˆ (t )
t
y g yt
ut
yˆ (t | θ ) = g (ϕ (t ),θ )
Validación
❚ Enfoque neuronal:
● Conjunto de datos de entrenamiento
❚ …
Ejemplo I
● Perturbaciones medibles:
Fl R.N.A. Elman Ca
Fr R.N.A. Elman Cb
Ca0
R.N.A. Elman Tl
Tl0
Tr0 R.N.A. Elman Tr
Ejemplo IV