Sei sulla pagina 1di 16

UNIVERSIDAD BICENTENARIA DE ARAGUA

FACULTAD DE INGENIERÍA
ESCUELA DE INGENIERÍA DE SISTEMAS
ESTADO APURE

Facilitadora: Realizado por:


Ing. Msc. Lisset Ortega. Br. María Querales.

Biruaca, Julio del 2019.


MECANISMOS BÁSICOS DE APRENDIZAJE

Modos y Rangos de Aprendizaje.

Los Modos aprendizajes pueden ser:

 Supervisado: Con un tutor que REFUERZA hasta congelar los pesos. El aprendizaje
supervisado se caracteriza porque el proceso de aprendizaje se realiza mediante un
entrenamiento controlado por un agente externo (supervisor, maestro) que determina la
respuesta que debería generar la red a partir de una entrada determinada. El supervisor
controla la salida de la red y en caso de que ésta no coincida con la deseada, se
procederá a modificar los pesos de las conexiones, con el fin de conseguir que la salida
obtenida se aproxime a la deseada.

 Aprendizaje por corrección de error: Consiste en ajustar los pesos de las


conexiones de la red en función de la diferencia entre los valores deseados y los
obtenidos a la salida de la red, es decir, en función del error cometido en la salida.

Un ejemplo de este tipo de algoritmos lo constituye la regla de aprendizaje


del Perceptron, utilizada en el entrenamiento de la red del mismo nombre que desarrolló
Rosenblatt en 1958. Esta es una regla muy simple, para cada neurona en la capa de salida se
le calcula la desviación a la salida objetivo como el error, δ. El cual luego se utiliza para
cambiar los pesos sobre la conexión de la neurona precedente.

Por último se debe mencionar la regla de aprendizaje de propagación hacia atrás o


de backpropagation, también conocido como regla LMS multicapa, la cual es una
generalización de la regla de aprendizaje Delta. Esta es la primera regla de aprendizaje que
permitió realizar cambios sobre los pesos en las conexiones de la capa oculta.
 Aprendizaje por refuerzo: Se trata de un aprendizaje supervisado, más lento que el
anterior, que se basa en la idea de no disponer de un ejemplo completo del
comportamiento deseado, es decir, de no indicar durante el entrenamiento
exactamente la salida que se desea que proporcione la red ante una determinada
entrada.

En el aprendizaje por refuerzo la función del supervisor se reduce a indicar


mediante una señal de refuerzo si la salida obtenida en la red se ajusta a la deseada (éxito =
+1 o fracaso = -1), y en función de ello se ajustan los pesos basándose en un 21 mecanismo
de probabilidades. Se podría decir que en este tipo de aprendizaje la función del supervisor
se asemeja más a la de un crítico (que opina sobre la respuesta de la red) que a la de un
maestro (que indica a la red la respuesta concreta que debe generar), como ocurría en el
caso de supervisión por corrección del error.

 Aprendizaje estocástico: Consiste básicamente en realizar cambios aleatorios en los


valores de los pesos de las conexiones de la red y evaluar su efecto a partir del
objetivo deseado y de distribuciones de probabilidad.

En el aprendizaje estocástico se suele hacer una analogía en términos


termodinámicos, asociando a la red neuronal con un sólido físico que tiene cierto estado
energético. En el caso de la red, la energía de la misma representaría el grado de estabilidad
de la red, de tal forma que el estado de mínima energía correspondería a una situación en la
que los pesos de las conexiones consiguen que su funcionamiento sea el que más se ajusta
al objetivo deseado.

Según lo anterior, el aprendizaje consistiría en realizar un cambio aleatorio de los


valores de los pesos y determinar la energía de la red (habitualmente la función energía es
una función de Liapunov). Si la energía es menor después del cambio, es decir, si el
comportamiento de la red se acerca al deseado, se acepta el cambio; si, por el contrario, la
energía no es menor, se aceptaría el cambio en función de una determinada y preestablecida
distribución de probabilidades.

 Otros Tipos de Aprendizaje Supervisado:

1. Regla del Perceptron.


2. Aprendizaje Supervisado Hebbiano.
3. Aprendizaje de Widrow-Hoff.
4. Algoritmo de Retropropagación.

 No supervisado: Aprende de detectar regularidades. Es decir, consiste en no presentar


patrones objetivos, sino solo patrones de entrada, y dejar a la red clasificar dichos
patrones en función de las características comunes de los patrones.

En este tipo de redes la salida representa el grado de familiaridad o similitud entre la


información que se le está presentando a la entrada y las informaciones que se le han
mostrado hasta entonces. Está constituido por un conjunto de reglas que dan a la red la
habilidad de aprender asociaciones entre los patrones que ocurren en conjunto,
(frecuentemente). Una vez que los patrones se han aprendido como asociación le permite a
las redes realizar tareas útiles de reconocimiento de patrones y la habilidad de recordar.
Dentro de las reglas de aprendizaje no supervisado tenemos las siguientes:

 Aprendizaje Hebbiano: Esta regla de aprendizaje es la base de muchas otras, la cual


pretende medir la familiaridad o extraer características de los datos de entrada. El
fundamento es una suposición bastante simple: si dos neuronas Ni y Nj toman el
mismo estado simultáneamente (ambas activas o ambas inactivas), el peso de la
conexión entre ambas se incrementa. Las entradas y salidas permitidas a la neurona
son: {-1, 1} o {0, 1} (neuronas binarias). Esto puede explicarse porque la regla de
aprendizaje de Hebb se originó a partir de la neurona biológica clásica, que
solamente puede tener dos estados: activa o inactiva.

La regla de aprendizaje de Hebb es NO Supervisada y se utiliza en redes neuronales


feedforward debido a que solo se emplea el producto de las entradas y las salidas actuales
para la modificación de los pesos. Ninguna salida deseada se proporciona para generar la
señal de aprendizaje que actualizará los pesos. La regla de aprendizaje de Hebb requiere de
la inicialización de los pesos en valores pequeños y aleatorios cercanos a cero antes de
realizar el aprendizaje.

 Aprendizaje competitivo y comparativo: Se orienta a la clusterización o


clasificación de los datos de entrada. Como característica principal del aprendizaje
competitivo se puede decir que, si un patrón nuevo se determina que pertenece a
una clase reconocida previamente, entonces la inclusión de este nuevo patrón a esta
clase matizará la representación de la misma. Si el patrón de entrada se determinó
que no pertenece a ninguna de las clases reconocidas anteriormente, entonces la
estructura y los pesos de la red neuronal serán ajustados para reconocer la nueva
clase.

 Introducción a aprendizaje asociativo: ¿Qué es una Asociación? Es cualquier


relación entre la entrada de un sistema y su salida de tal forma que cuando el patrón
A se presenta al sistema éste responde con un patrón B. Estimulo / Respuesta es
cuando dos patrones son relacionados por una asociación , al patrón de entrada se le
conoce como estímulo y al patrón de salida se le refiere como respuesta .Algunos
Investigadores de Aprendizaje Asociativo son Teuvo Kohonen (red asociativa
lineal), James Anderson (red asociativa lineal), Stephen Grossberg (red asociativa
no lineal continua), D.O Hebb, Iván Pavlov Experimento Condicionamiento comida
Salivación a la comida. campana Salivación al oír la campana, Condicionamiento
Positivo reforzamiento Condicionamiento Negativo Nocivo.

 Aprendizaje Auto supervisado: Las redes con aprendizaje no supervisado (auto


supervisado) no requieren influencia externa para ajustar los pesos de las
conexiones entre sus neuronas. La red no recibe ninguna información por parte del
entorno que le indique si la salida generada en respuesta a una determinada entrada
es o no correcta; por ello suele decirse que estas redes son capaces de auto
organizarse.

 Estímulo. Respuesta Snoopy: En la Curva de Snoopy los pensamientos permanecen


aun cuando el estímulo haya desaparecido. La activación remanente es baja. La
activación decae gradualmente.

Por otro lado encontramos que los rangos de aprendizaje pueden ser:

 Rápido: Poco training → Discriminación baja.


 Lento: Mucho training (off line) → Discriminación fina.
 El rango es una medida de CONVERGENCIA de la red

Técnicas de Entrenamiento.

 Las Redes Aprenden la relación entre Entradas y Salidas “mirando” ejemplos de varias
Entradas y Salidas.

 La habilidad para determinar como procesar los datos de entrada se llama


“autoorganización”.
 El proceso por el cual lo logran se denomina “adaptación” o “aprendizaje”.

 Leyes de Aprendizaje.

Ley de Hebb y Regla Delta.

La teoría Hebbiana describe un mecanismo básico de plasticidad sináptica en el que


el valor de una conexión sináptica se incrementa si las neuronas de ambos lados de dicha
sinapsis se activan repetidas veces de forma simultánea. Introducida por Donald Hebb, en
1949, es también llamada regla de Hebb, postulado de aprendizaje de Hebb o Teoría de la
Asamblea Celular.

La teoría se resume a menudo como: "las células que se disparan juntas,


permanecerán conectadas", aunque esto es una simplificación del sistema nervioso no debe
tomarse literalmente, así como no representa con exactitud la declaración original de Hebb
sobre cambios de la fuerza de conectividad en las células. La teoría es comúnmente
evocada para explicar algunos tipos de aprendizajes asociativos en los que la activación
simultánea de las células conduce a un pronunciado aumento de la fuerza sináptica. Este
aprendizaje se conoce como aprendizaje de Hebb.

La teoría hebbiana ha sido la base principal de la visión convencional de que


los engramas son redes neuronales cuando se analizan desde un nivel holístico. Los trabajos
de laboratorio de Eric Kandel han aportado pruebas de la participación de mecanismos de
aprendizaje hebbiano en las sinapsis del gasterópodo marino Aplysia californica.

Los experimentos sobre los mecanismos hebbianos de modificación en


las sinapsis del sistema nervioso central de vertebrados son mucho más difíciles de
controlar que los experimentos con las sinapsis del relativamente simple sistema nervioso
periférico estudiadas en invertebrados marinos. Gran parte del trabajo sobre cambios
sinápticos de larga duración en neuronas de vertebrados (como la potenciación a largo
plazo) implican el uso de estimulación experimental no fisiológica de células cerebrales.
Sin embargo, algunos de los mecanismos fisiológicamente relevantes de modificación
sináptica que se han estudiado en cerebros de vertebrados parecen ser ejemplos de procesos
hebbianos. Una estudio resultado de estos experimentos indica que los cambios a largo
plazo en la fuerza de las sinapsis pueden ser inducidos por actividad sináptica
fisiológicamente relevante que trabaja tanto a través de mecanismos hebbianos como no
hebbianos.

Principios:

Desde el punto de vista de las neuronas artificiales y redes neuronales artificiales, el


principio de Hebb se puede describir como un método de determinar la forma de modificar
los pesos entre modelos de neuronas. El peso entre dos neuronas se incrementa si las dos
neuronas se activan simultáneamente y se reduce si se activan por separado. Los nodos que
tienden a ser positivos o negativos al mismo tiempo tienen fuertes pesos positivos, mientras
que aquellos que tienden a ser contrarios tienen fuertes pesos negativos.

Este original principio es quizás la forma más simple de selección de pesos. Si bien
esto significa que puede ser relativamente fácil de codificar en un programa informático y
se utilize para actualizar los pesos correspondientes de una red de neuronas, también limita
el número de aplicaciones de aprendizaje hebbiano. Hoy en día, el término aprendizaje
hebbiano por lo general se refiere a algún tipo de abstracción matemática del principio
original propuesto por Hebb. En este sentido, el aprendizaje hebbiano implica que los pesos
sean ajustados de manera que cada uno de ellos represente la mejor relación posible entre
los nodos. Como tal, muchos métodos de aprendizaje de la naturaleza pueden ser
consideradas como hebbianos.
Regla del Descenso y Kohonen.

El Descenso del Gradiente es el algoritmo de entrenamiento más simple y también


el más extendido y conocido. Solo hace uso del vector gradiente, y por ello se dice que es
un método de primer orden.

Este método para construir el punto wi+1wi+1 a partir de wiwi se traslada este
punto en la dirección de entrenamiento di=−gidi=−gi. Es decir:

wi+1=wi−giνiwi+1=wi−giνi

Donde el parámetro νν se denomina tasa de entrenamiento, que puede fijarse a


priori o calcularse mediante un proceso de optimización unidimensional a lo largo de la
dirección de entrenamiento para cada uno de los pasos (aunque esta última opción es
preferible, a menudo se usa un valor fijo, νi=ννi=ν con el fin de simplificar el proceso).

Aunque es muy sencillo, este algoritmo tiene el gran inconveniente de que, para
funciones de error con estructuras con valles largos y estrechos, requiere muchas
iteraciones. Se debe a que, aunque la dirección elegida es en la que la función de error
disminuye más rápidamente, esto no significa que necesariamente produzca la
convergencia más rápida.

Por ello, es el algoritmo recomendado cuando tenemos redes neuronales muy


grandes, con muchos miles de parámetros, ya que sólo almacena el vector gradiente (de
tamaño nn), pero no hace uso de la Hessiana (de tamaño n2n2).

Propagación Hacia Atras.

La propagación hacia atrás de errores o retropropagación (del inglés


backpropagation) es un método de cálculo del gradiente utilizado
en algoritmos de aprendizaje supervisadoutilizados para entrenar redes neuronales
artificiales. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que
se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la
primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de
salida se compara con la salida deseada y se calcula una señal de error para cada una de las
salidas.

Las salidas de error se propagan hacia atrás, partiendo de la capa de salida, hacia
todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo
las neuronas de la capa oculta solo reciben una fracción de la señal total del error,
basándose aproximadamente en la contribución relativa que haya aportado cada neurona a
la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la
red hayan recibido una señal de error que describa su contribución relativa al error total.

La importancia de este proceso consiste en que, a medida que se entrena la red, las
neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas
neuronas aprenden a reconocer distintas características del espacio total de entrada.
Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que
contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán
con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella
característica que las neuronas individuales hayan aprendido a reconocer durante su
entrenamiento.

Red de Grossberg.

La teoría de la resonancia adaptativa (en inglés, adaptive resonance theory,


conocido por sus siglas inglesas ART), desarrollada por Stephen Grossberg y Gail
Carpenter. Es un modelo de red neuronal artificial (RNA) que basa su funcionamiento en la
manera en que el cerebro procesa información y que describe una serie de modelos de redes
neuronales que utilizando métodos de aprendizaje supervisado y no supervisado abordan
problemas tales como el reconocimiento y la predicción de patrones.

Características:

 El aprendizaje se produce mediante un mecanismo de realimentación creado por la


competencia entre las neuronas de la capa de salida y la capa de entrada de la red.

 El aprendizaje es no supervisado, aunque existe una modalidad supervisada.

 La red crea su propia clasificación de lo que aprende.

Arquitectura:

Es una red formada por dos capas:

 Capa de entrada (F1): Datos de entrada pasan a ser los valores de sus neuronas, en ella
también se hace la comparación de similitud.

 Capa de salida (F2): Es una capa de neuronas competitivas, o sea todas compiten para
ser la ganadora, pero solo una puede ser la ganadora y esta inhibe a las demás.

 Parámetro de vigilancia (p): Dice cuan semejante debe ser la entrada con la categoría
seleccionada. Este parámetro está dado por 0 < x > 1, si "x" es muy cercano a 0, muchas
entradas serán categorizadas en una misma categoría, mientras si "x" en muy cercano a
1 se crearán muchas categorías (memorización).
 Sistema de orientación: Sirve para orientar la red, ya que las neuronas de ambas capas
están totalmente interconectadas y hay una afluencia hacia adelante y hacia atrás.

 Sistema de reinicio: Sirve para inhibir la neurona ganadora cuando dicha no cumple con
la vigilancia, en el proceso de comparación de similitud.

En algunos casos se puede agregar una capa más, para hacer preprocesamiento de
los datos conocido como normalización de entradas, el cual puede consistir en agregarle a
la entrada su complemento o dividir cada una de las entradas por su norma.

Aplicaciones de las Redes Neuronales.

Las redes neuronales pueden utilizarse en un gran número y variedad de


aplicaciones, tanto comerciales como militares. Se pueden desarrollar redes neuronales en
un periodo de tiempo razonable, con la capacidad de realizar tareas concretas mejor que
otras tecnologías.

Cuando se implementan mediante hardware (redes neuronales en chips VLSI),


presentan una alta tolerancia a fallos del sistema y proporcionan un alto grado de
paralelismo en el procesamiento de datos. Esto posibilita la inserción de redes neuronales
de bajo coste en sistemas existentes y recientemente desarrollados. Hay muchos tipos
diferentes de redes neuronales; cada uno de los cuales tiene una aplicación particular más
apropiada. Algunas aplicaciones comerciales son:

Biología:

 Aprender más acerca del cerebro y otros sistemas.

 Obtención de modelos de la retina.


Empresa:

 Evaluación de probabilidad de formaciones geológicas y petrolíferas.

 Identificación de candidatos para posiciones específicas.

 Explotación de bases de datos.

 Optimización de plazas y horarios en líneas de vuelo.

 Optimización del flujo del tránsito controlando convenientemente la temporización de


los semáforos.

 Reconocimiento de caracteres escritos.

 Modelado de sistemas para automatización y control.

Medio ambiente:

 Analizar tendencias y patrones.

 Previsión del tiempo.

Finanzas:

 Previsión de la evolución de los precios.

 Valoración del riesgo de los créditos.


 Identificación de falsificaciones.

 Interpretación de firmas.

Manufacturación:

 Robots automatizados y sistemas de control (visión artificial y sensores de presión,


temperatura, gas, etc.).

 Control de producción en líneas de procesos.

 Inspección de la calidad.

Medicina:

 Analizadores del habla para ayudar en la audición de sordos profundos.

 Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos


(electrocardiograma, encefalogramas, análisis sanguíneo, etc.).

 Monitorización en cirugías.

 Predicción de reacciones adversas en los medicamentos.

 Entendimiento de la causa de los ataques cardíacos.


Militares:
 Clasificación de las señales de radar.

 Creación de armas inteligentes.

 Optimización del uso de recursos escasos.

 Reconocimiento y seguimiento en el tiro al blanco.

La mayoría de estas aplicaciones consisten en realizar un reconocimiento de


patrones, como ser: buscar un patrón en una serie de ejemplos, clasificar patrones,
completar una señal a partir de valores parciales o reconstruir el patrón correcto partiendo
de uno distorsionado. Sin embargo, está creciendo el uso de redes neuronales en distintos
tipos de sistemas de control.

Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales
reside en el procesado paralelo, adaptativo y no lineal. El dominio de aplicación de las
redes neuronales también se lo puede clasificar de la siguiente forma: asociación y
clasificación, regeneración de patrones, regresión y generalización, y optimización.
BIBLIOGRAFÍA

MARTÍNEZ, O. (2007). Introducción a la Redes Neuronales. Universidad Complutense


de Madrid, Facultad de Informática. Consulta: Julio 2019. Disponible en Internet:
http://www.gurugames.es/people/pedro/aad/ivan_martinez.pdf

Potrebbero piacerti anche