Sei sulla pagina 1di 4

UNIVERSIDAD VERACRUZANA

FACULTAD DE INGENIERA INSTRUMENTACIN


ELECTRNICA
Xalapa, VERACRUZ

EXPERIENCIA EDUCATIVA

Tpicos Avanzados I

INTELIGENCIA ARTIFICIAL

ESTUDIANTE

Martnez Pensado Mario

SEMESTRE

11 DE AGOSTO DE 2016

FUNCIN DE PROPAGACIN

Esta regla permite obtener, a partir de las entradas y los pesos el valor del potencial
postsinptico hi de la neurona:

(1)

La funcin ms habitual es la suma ponderada de todas las entradas. Podemos agrupar las
entradas y pesos en dos vectores (X1;X2; ::: Xn) y (W1j ;W2j ; :::Wnj) podemos calcular
esta suma realizando el producto escalar sobre estos dos vectores.

(2)

La funcin de propagacin puede ser ms compleja que simplemente una suma de


productos. Las entradas y los pesospueden ser combinados de diferentes maneras
antes de pasarse el valor a la funcin de activacin. Por ejemplo podemos usar como
funcin de propagacin, el mnimo, mximo, la mayora, producto, o diversos algoritmos
de normalizacin. El algoritmo especfico para la propagacin de las entradas neuronales
est determinado por la eleccin de la arquitectura.

FUNCIN DE ACTIVACIN O TRANSFERENCIA

El resultado de la funcin de propagacin, en la mayora de los casos es una suma


ponderada, es transformada en la salida real de la neurona mediante un proceso
algortmico conocido como funcin de activacin.

(3)

En la funcin de activacin el valor de la salida de combinacin puede ser comparada con


algn valor umbral para determinar la salida de la neurona.
Si la suma es mayor que el valor umbral, neurona generar una seal. Si la
suma es menor que el valor umbral, ninguna seal ser generada.

Normalmente el valor umbral, o valor de la funcin de transferencia, es normalmente no


lineal. El uso de funciones lineales es limitado ya que el valor de la salida es proporcional
al de la entrada, de hecho este fue uno de los problemas en los primeros modelos de
redes neuronales como fue identificado por Minsky y Papert en Perceptrons. La funcin
de activacin pudiera ser algo tan simple como dependiente sobre si el resultado de la
funcin de combinacin es positivo o negativo.

Ejemplos de Funciones de Activacin

Fuente: Introduccin a las redes neuronales

De las funciones presentadas en la figura 4 destacan las funciones sigmoidales. Desde el


punto de vista matemtico, la utilidad de estas funciones es que ella y sus derivadas son
continuas. Estas funciones funcionan bastante bien y son normalmente las elegidas.Antes
de aplicar la funcin de activacin, se puede aadir cierto ruido a las entradas. La fuente y
la cantidad de este ruido estn determinadas por el modo de entrenamiento de una red
particular. Este ruido normalmente es conocido como temperatura de la neurona. De
hecho, al aadir diferentes niveles de ruido al resultado de la combinacin lleva a crearse
un modelo ms parecido al cerebro. El uso del ruido por temperatura est an en fase de
investigacin y no es aplicado habitualmente en las aplicaciones.

ESCALAMIENTO Y LIMITACIN El valor de salida de la funcin de activacin puede ser


procesado de manera adicional mediante un escalamiento y limitacin. El escalamiento
simplemente multiplica el valor de la funcin de transferencia por un factor de escala y
despus se le suma un desplazamiento.Normalmente este tipo de escalamiento y
limitacin es usado principalmente en topologas usadas para verificar modelos
neuronales biolgicos.

Funcin de salida (Competitividad) Cada elemento de procesamiento tiene permitido una


nica salida Yi(t)que puede estar asociada con un nmero elevado de
otras neuronas. Normalmente, la salida es directamente
equivalente al valor resultante de la funcin de activacin.

(4)

Algunas topologas de redes neuronales, sin embargo, modifican el valor de la


funcin de transferencia para incorporar un factor de competitividad entre neuronas que
sean vecinas. Las neuronas tienen permitidas competir entre ellas, inhibiendo a otras
neuronas a menos que tengan una gran fortaleza.