Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Estructura neuronal
Una neurona artificial se compone de un sumador y una función de activación. Las señales de
entrada (representadas por x en la figura) se multiplican por cada peso W. Luego, la suma y1 se
aplica a la función de activación f (y1) para producir la salida z1.
Función de activación
La función de activación debe ser un sigmoide (tiene forma de S), real, continua, limitada y tiene
un derivado positivo. Dos de las funciones de activación más populares (para redes neuronales
multicapa) son la tangente hiperbólica (z = tanh (y)) y la función logística (z = logsig (y)). La ANN
que se muestra a continuación tiene tres entradas y una salida.
Parcialidad
Cada neurona tiene una entrada fija llamada Bias que siempre tiene un valor de uno. El sesgo
permite que la neurona aumente su flexibilidad de aprendizaje cambiando el valor de y según se
requiera para las condiciones específicas del problema.
Problema 5
Indique las principales similitudes y diferencias entre las funciones: logsig y tanh.
Problema 6
Indique si la siguiente afirmación es verdadera o falsa. Cuando las neuronas de una ANN utilizan la
función logsig, los valores de salida de la red no pueden exceder un valor de uno, sin importar qué
entrada se aplique a la red. Es imposible alcanzar un valor fuera del rango [0 1] en la salida de la
ANN. Si el rango requerido es mayor que de cero a uno, entonces la señal de salida debe escalarse
adecuadamente.
Problema 7
Indique si la siguiente afirmación es verdadera o falsa. Cuando las neuronas de una ANN operan
utilizando la función tanh, es muy importante tener en cuenta que la señal de salida está limitada
al rango de -1 a 1. La función tanh tiene una forma muy similar a la forma de la función logsig. Sin
embargo, el rango inferior para la función logsig es cero en comparación con el rango inferior del
tanh que es -1.
Propina
Siempre escale la salida de una ANN usando la función logsig para usar eficientemente el rango de
salida (0 a 1). Esto significa que si hay algunos valores grandes ocasionales que obligarán a la
escala a atenuar severamente la señal de salida, estos valores deben recortarse antes de escalar.
Propina