Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
FACULTAD DE INGENIERÍA
ESCUELA DE INGENIERÍA DE SISTEMAS
ESTADO APURE
Supervisado: Con un tutor que REFUERZA hasta congelar los pesos. El aprendizaje
supervisado se caracteriza porque el proceso de aprendizaje se realiza mediante un
entrenamiento controlado por un agente externo (supervisor, maestro) que determina la
respuesta que debería generar la red a partir de una entrada determinada. El supervisor
controla la salida de la red y en caso de que ésta no coincida con la deseada, se
procederá a modificar los pesos de las conexiones, con el fin de conseguir que la salida
obtenida se aproxime a la deseada.
Por otro lado encontramos que los rangos de aprendizaje pueden ser:
Técnicas de Entrenamiento.
Las Redes Aprenden la relación entre Entradas y Salidas “mirando” ejemplos de varias
Entradas y Salidas.
Leyes de Aprendizaje.
Principios:
Este original principio es quizás la forma más simple de selección de pesos. Si bien
esto significa que puede ser relativamente fácil de codificar en un programa informático y
se utilize para actualizar los pesos correspondientes de una red de neuronas, también limita
el número de aplicaciones de aprendizaje hebbiano. Hoy en día, el término aprendizaje
hebbiano por lo general se refiere a algún tipo de abstracción matemática del principio
original propuesto por Hebb. En este sentido, el aprendizaje hebbiano implica que los pesos
sean ajustados de manera que cada uno de ellos represente la mejor relación posible entre
los nodos. Como tal, muchos métodos de aprendizaje de la naturaleza pueden ser
consideradas como hebbianos.
Regla del Descenso y Kohonen.
Este método para construir el punto wi+1wi+1 a partir de wiwi se traslada este
punto en la dirección de entrenamiento di=−gidi=−gi. Es decir:
wi+1=wi−giνiwi+1=wi−giνi
Aunque es muy sencillo, este algoritmo tiene el gran inconveniente de que, para
funciones de error con estructuras con valles largos y estrechos, requiere muchas
iteraciones. Se debe a que, aunque la dirección elegida es en la que la función de error
disminuye más rápidamente, esto no significa que necesariamente produzca la
convergencia más rápida.
Las salidas de error se propagan hacia atrás, partiendo de la capa de salida, hacia
todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo
las neuronas de la capa oculta solo reciben una fracción de la señal total del error,
basándose aproximadamente en la contribución relativa que haya aportado cada neurona a
la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la
red hayan recibido una señal de error que describa su contribución relativa al error total.
La importancia de este proceso consiste en que, a medida que se entrena la red, las
neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas
neuronas aprenden a reconocer distintas características del espacio total de entrada.
Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que
contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán
con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella
característica que las neuronas individuales hayan aprendido a reconocer durante su
entrenamiento.
Red de Grossberg.
Características:
Arquitectura:
Capa de entrada (F1): Datos de entrada pasan a ser los valores de sus neuronas, en ella
también se hace la comparación de similitud.
Capa de salida (F2): Es una capa de neuronas competitivas, o sea todas compiten para
ser la ganadora, pero solo una puede ser la ganadora y esta inhibe a las demás.
Parámetro de vigilancia (p): Dice cuan semejante debe ser la entrada con la categoría
seleccionada. Este parámetro está dado por 0 < x > 1, si "x" es muy cercano a 0, muchas
entradas serán categorizadas en una misma categoría, mientras si "x" en muy cercano a
1 se crearán muchas categorías (memorización).
Sistema de orientación: Sirve para orientar la red, ya que las neuronas de ambas capas
están totalmente interconectadas y hay una afluencia hacia adelante y hacia atrás.
Sistema de reinicio: Sirve para inhibir la neurona ganadora cuando dicha no cumple con
la vigilancia, en el proceso de comparación de similitud.
En algunos casos se puede agregar una capa más, para hacer preprocesamiento de
los datos conocido como normalización de entradas, el cual puede consistir en agregarle a
la entrada su complemento o dividir cada una de las entradas por su norma.
Biología:
Medio ambiente:
Finanzas:
Interpretación de firmas.
Manufacturación:
Inspección de la calidad.
Medicina:
Monitorización en cirugías.
Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales
reside en el procesado paralelo, adaptativo y no lineal. El dominio de aplicación de las
redes neuronales también se lo puede clasificar de la siguiente forma: asociación y
clasificación, regeneración de patrones, regresión y generalización, y optimización.
BIBLIOGRAFÍA