Sei sulla pagina 1di 17

REDES

NEURONALES
ARTIFICIALES
 Otra forma de emular características propias
de los humanos: memorizar y asociar hechos.
 Se aprende de la experiencia.
Introducción
 El cerebro humano es el ejemplo más perfecto
de sistema capaz de adquirir conocimiento.
 Se modela artificialmente ese sistema.
 Una red neuronal es "un nuevo sistema para
el tratamiento de la información, cuya unidad
básica de procesamiento está inspirada en la
célula fundamental del sistema nervioso
Definición humano: la neurona".
 Las neuronas son un componente
relativamente simple pero conectadas de a
miles forman un poderoso sistema.
 IA -> desarrollar máquinas que realizan tareas
cognitivas para las cuales los humanos son
aptos.

Representación
IA y RNAs
IA
Aprendizaje

Razonamiento
 Detección de patrones.
 Filtrado de señales
 Segmentación de datos
APLICACIONES
 Control
 Identificación.
Aplicaciones
de las Redes
Neurales
 Neurona: base del funcionamiento del cerebro.

 Sistema de procesamiento cerebral de la


información:
 Complejo, No lineal y Paralelo.

REDES
NEURONALES

 Elementos de que consta: sinapsis, axón, dentritas


y soma o cuerpo
 Neurona artificial: unidad de procesamiento de la
información, es un dispositivo simple de cálculo
que ante un vector de entradas proporciona una
única salida.

 Elementos:
 Conjunto de entradas, xj a

NEURONA y

ARTIFICIAL  Pesos sinápticos, wi


 Función de activación:
w1·x1+ w2·x2 + ... + wn·xn = a
 Función de transferencia:
y = F (w1·x1+ w2·x2 + ... + wn·xn )
 Bias o polarización: entrada constate de
magnitud 1, y peso b que se introduce en el
sumador
 Principales funciones de transferencia:
 Lineal: y=ka
 Escalón: y = 0 si a<0; y=1 si a>=0
 Sigmoide
NEURONA  Gaussiana.
ARTIFICIAL
 Una neurona aislada dispone de poca potencia de
cálculo.
 Los nodos se conectan mediante la sinapsis
 Las neuronas se agrupan formando una
estructura llamada capa.
RNA de una  Los pesos pasan a ser matrices W (n x m)
capa  La salida de la red es un vector: Y=(y1, y2, ... , yn)T
 Y=F(W·X+b)
a1

y1

a2

y2

an

yn
 Redes multicapa: capas en cascada.
 Tipos de capas:
 Entrada
 Salida
 Oculta
 No hay realimentación => red feedforward
RNA  Salida depende de entradas y pesos.
Multicapa
• Si hay realimentación => red recurrente
• Efecto memoria
• Salida depende también de la historia
pasada
 Función de transferencia lineal.
 Algoritmo de entrenamiento de Widrow-
Hoff o Delta, tiene en cuenta la magnitud
del error.
 Entrenamiento:
 Suma de los cuadrados de los errores
Redes sea mínima.
Neuronales  Superficie de error con mínimo único.
Lineales.  Algoritmo tipo gradiente.

 Aproximan funciones lineales.


 Topología.
 Número de capas.
 Número de neuronas por capa.
 Tipo de conexiones. Normalmente,
Característic todas las neuronas de una capa reciben
as de las RNA señales de la capa anterior (más cercana
a la entrada) y envían su salida a las
neuronas de la capa posterior (más
cercana a la salida de la red).
 Tipo de aprendizaje.
 Ventajas de las RNA:

 Aprendizaje adaptativo: lo necesario es aplicar


un buen algoritmo y disponer de patrones
(pares) de entrenamiento.
 Auto-organización => conduce a la
generalización
VENTAJAS
 Tolerancia a fallos: las redes pueden aprender
patrones que contienen ruido, distorsión o que
están incompletos.
 Operación en tiempo real: procesan gran
cantidad de datos en poco tiempo.
 Facilidad de inserción en tecnología ya
existente.
 Control

Tareas de las  Classification En general estas pueden ser


redes reformuladas como tareas de
APROXIMACION DE
Neuronales  Prediction FUNCIONES

 Approximation
 ALVINN aprende a mantener un automovil en la
via observando como la gente conduce (Dean
Pomerleau en CMU)

Ejemplo:
conduccion
de
automoviles
 90% de precision en aprender la pose de la cabeza
y reconocimiento de 1-20 caras

Ejemplo:
reconocimie
nto de caras

Potrebbero piacerti anche