Sei sulla pagina 1di 13

Instituto Tecnológico

Superior de Coatzacoalcos
Ingeniería en Sistemas Computacionales

Inteligencia Artificial
Docente:
Yazmín Ruiz Bonilla

Integrantes del equipo:


Jorge Luis Francisco Morales
Ezequiel Rodríguez Arias
Cristy Guadalupe Muñoz Fuentes
Arturo Orozco Hernández
Raúl Ramírez Sánchez
Alexis Eduardo Narváez Tadeo
Redes Neuronales
¿Qué son las redes neuronales?
Las Redes Neuronales son un campo muy importante dentro de la
Inteligencia Artificial. Inspirándose en el comportamiento conocido del
cerebro humano (principalmente el referido a las neuronas y sus
conexiones), trata de crear modelos artificiales que solucionen problemas
difíciles de resolver mediante técnicas algorítmicas convencionales.
Estan inspiradas en la biología, esto significa que están formadas por
elementos que se comportan de manera análoga a las neuronas (en las
funciones más elementales) y están organizadas de una forma similar a la
del cerebro.
Aprendizaje por el entrenamiento
de la red
1.- Fase de entrenamiento: Una vez seleccionada el tipo de neurona artificial que
se utilizará en una red neuronal y determinada su topología es necesario entrenarla
para que la red Entrenamiento de redes neuronales basado en algoritmos evolutivos
pueda ser utilizada. Partiendo de un conjunto de pesos sinápticos aleatorio,
el proceso de aprendizaje busca un conjunto de pesos que permitan a la
red desarrollar correctamente una determinada tarea. Durante el proceso de
aprendizaje se va refinando iterativamente la solución hasta alcanzar un nivel de
operación suficientemente bueno.
El proceso de aprendizaje se puede dividir en tres grandes grupos de acuerdo a sus
características:
• Aprendizaje supervisado. Se presenta a la red un conjunto de patrones de
entrada junto con la salida esperada. Los pesos se van modificando de manera
proporcional al error que se produce entre la salida real de la red y la salida
esperada.
• Aprendizaje no supervisado. Se presenta ala red un conjunto de patrones de
entrada. No hay información disponible sobre la salida esperada. El proceso de
entrenamiento en este caso deberá ajustar sus pesos en base a la correlación
existente entre los datos de entrada.
• Aprendizaje por refuerzo. Este tipo de aprendizaje se ubica entre medio de los
dos anteriores. Se le presenta a la red un conjunto de patrones de entrada y se le
indica a la red si la salida obtenida es o no correcta. Sin embargo, no se le
proporciona el valor de la salida esperada. Este tipo de aprendizaje es muy útil en
aquellos casos en que se desconoce cual es la salida exacta que debe proporcionar
la red.
2.- Fase de operación: Una vez finalizada la fase de aprendizaje, la red puede ser
utilizada para realizar la tarea para la que fue entrenada. Una de las principales
ventajas que posee este modelo es que la red aprende la relación existente entre los
datos, adquiriendo la capacidad de generalizar conceptos. De esta manera, una red
neuronal puede tratar con información que no le fue presentada durante de la fase
de entrenamiento.
¿Características de las redes
neuronales?
Una red neuronal artificial (RNA) se puede definir (Hecht – Nielssen 93) como un grafo
dirigido con las siguientes restricciones:
 Los nodos se llaman elementos de proceso (EP).
 Los enlaces se llaman conexiones y funcionan como caminos unidireccionales
instantáneos
 Cada EP puede tener cualquier número de conexiones.
 Todas las conexiones que salgan de un EP deben tener la misma señal.
 Los EP pueden tener memoria local.
 Cada EP posee una función de transferencia que, en función de las entradas y la
memoria local produce una señal de salida y / o altera la memoria local.
 Las entradas a la RNA llegan del mundo exterior, mientras que sus salidas son
conexiones que abandonan la RNA.
Tipos de redes neuronales
Redes de capa simple: A pesar de que una sola
neurona puede realizar modelos simples de funciones, su
mayor productividad viene dada cuando se organizan en
redes. La red más simple es la formada por un conjunto
de perceptores a los que entra un patrón de entradas y
proporcionan la salida correspondiente. Por cada
perceptor que tengamos en la red vamos a tener una
salida, que se hallará como se hacía con un perceptor
solo, haciendo el sumatorio de todas las entradas
multiplicadas por los pesos. Al representar gráficamente
una red, se añade una "capa" inicial que no es
contabilizada a efectos de computación, solamente sirve
para distribuir las entradas entre los perceptores. La
denominaremos la capa 0. De esta manera, la
representación gráfica de una red de capa simple sería la
siguiente:
Redes multicapa: Las redes multicapa se forman por un conjunto de redes de capa simple en
cascada unidas por pesos, donde la salida de una capa es la entrada de la siguiente capa.
Generalmente son capaces de aprender funciones que una red de capa simple no puede
aprender, por lo que ofrecen mejores capacidades computacionales. Para que este incremento
en poder computacional sea tal, tiene que existir una función de activación no lineal entre las
capas, por lo que generalmente se utilizará una función de activación sigmoidea en detrimento
de la lineal o umbral. Para calcular la salida de una red multicapa se debe hacer de la misma
manera que en las redes de capa simple, teniendo en cuenta que las salidas de una capa son
las entradas de la siguiente capa.:
Redes recurrentes: Las redes consideradas hasta ahora no tienen conexiones entre
pesos de la salida de una capa a la entrada de la misma capa o anteriores. Las redes que
poseen esta característica son conocidas como redes recurrentes. Las redes recurrentes
no tienen memoria, es decir, la salida solamente está determinada por las entradas y los
pesos. Las capas recurrentes re direccionan previas salidas a entradas. Su salida es
determinada por su entrada y sus salidas previas, por lo que se puede asemejar a la
memoria a corto plazo de los seres humanos.
Arquitectura de las RNA

La arquitectura de una RNA es la estructura o patrón de conexiones de la red. Es conveniente


recordar que las conexiones sinápticas son direccionales, es decir, la información sólo se transmite
en un sentido.
En general, las neuronas suelen agruparse en unidades estructurales llamadas capas. Dentro de una
capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir tres tipos de capas

 De entrada: reciben datos o señales procedentes del entorno.


 De salida: proporcionan la respuesta de la red a los estímulos de la entrada.
 Ocultas: no reciben ni suministran información al entorno (procesamiento interno de la red).
Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede haber
conexiones intracapa o laterales y conexiones de realimentación que siguen un sentido contrario al
de entrada-salida.
Aprendizaje de las RNA
Es el proceso por el que una RNA actualiza los pesos (y, en algunos casos, la arquitectura) con el propósito de
que la red pueda llevar a cabo de forma efectiva una tarea determinada.
 Hay tres conceptos fundamentales en el aprendizaje:
 Paradigma de aprendizaje: información de la que dispone la red.
 Regla de aprendizaje: principios que gobiernan el aprendizaje.
 Algoritmo de aprendizaje: procedimiento numérico de ajuste de los pesos.

Existen dos paradigmas fundamentales de aprendizaje:


 Supervisado: la red trata de minimizar un error entre la salida que calcula y la salida deseada (conocida), de
modo que la salida calculada termine siendo la deseada.
 No supervisado o auto organizado: la red conoce un conjunto de patrones sin conocer la respuesta
deseada. Debe extraer rasgos o agrupar patrones similares.

En cuanto a los algoritmos de aprendizaje, tenemos cuatro tipos:


 Minimización del error: reducción del gradiente, retro propagación, etc. La modificación de pesos está
orientada a que el error cometido sea mínimo.
 Boltzmann: para redes estocásticas, donde se contemplan parámetros aleatorios.
 Hebb: cuando el disparo de una célula activa otra, el peso de la conexión entre ambas tiende a reforzarse
(Ley de Hebb).
 Competitivo: sólo aprenden las neuronas que se acercan más a la salida deseada.