Sei sulla pagina 1di 11

[Type text]

1. INTRODUCCIN A LAS REDES NEURALES


Como las computadoras se vuelven ms poderosas, los cientficos son retados
para efectivamente usar mquinas para tareas que son relativamente simples
para los humanos.
Basados en ejemplos, junto con algo de retroalimentacin de un maestro,
podemos aprender fcilmente a reconocer la letra A distinguir un gato de
un pjaro. Mayor experiencia nos permite refinar nuestras respuestas y mejorar
nuestro desempeo.
Computadoras digitales tradicionales, secuenciales y basadas en lgica son
manipuladas en muchas reas pero son menos exitosas para otro tipo de
problemas.
El desarrollo de redes neurales artificiales iniciaron hace 60 aos
aproximadamente motivado por el deseo de tratar de entender el cerebro y
emular algunas de sus fortalezas.
Reciente renovado inters en redes neurales se puede atribuir a varios
factores. Se han desarrollado tcnicas de entrenamiento para arquitecturas de
redes ms sofisticadas que son capaces de superar las debilidades de las
primeras y simples redes neurales.
Computadoras digitales de alta velocidad hacen la simulacin de procesos
neurales ms realizables. Existe hora tecnologa disponible para producir
hardware especializado para redes neurales. Los desarrollos de computacin
paralela se pueden beneficiar del estudio de sistemas neurales biolgicos, los
cuales son altamente paralelos.
Redes neurales son de inters a los investigadores en muchas reas por
diferentes razones. Los ingenieros elctricos encuentran numerosas
aplicaciones en procesamiento de seales y teora de control. Ingenieros en
computacin estn intrigados por el potencial del hardware para implementar
redes neurales eficientemente y por aplicaciones de redes neurales a robtica
ingenieros en sistemas encuentran a las redes neurales promisorias para
problemas difciles en reas de inteligencia artificial y reconocimiento de
patrones.
Para matemticas aplicadas, las redes neurales son una poderosa herramienta
para modelar problemas para los cuales la forma explcita de las relaciones
entre ciertas variables no es conocida.
Hay varios puntos de vista acerca de la naturaleza de una red neural, puede
ser un componente de hardware de computadora especializado (VLSI) un
programa de computadora. Sin embargo nosotros veremos las redes neurales
bsicamente como modelos matemticos de procesamiento de

[Type text]
informacin. Proveen un mtodo de representar relaciones que es muy
diferente de mquina de Turing computadoras con programa almacenado.

1.1BASES BIOLOGICAS
Una neurona biolgica tiene 3 tipos diferentes de componentes que son de
inters para entender una neurona artificial: la dendrita, soma y axn. Muchas
dendritas reciben seales desde otras neuronas. Las seales son impulsos
elctricos que son transmitidos a travs de una sinapsis por medio de un
proceso qumico. La accin del transmisor qumico modifica la seal entrante
(escalando la seal que es recibida) en una forma similar a la accin de un
peso en las redes neurales artificiales.
La soma, cuerpo dela clula, suma las seales entrantes. Cuando suficiente
entrada es recibida, la clula dispara; esto es, transmite una seal a travs de
su axn a otras clulas. Una clula dispara o no en un instante dado as que las
seales transmitidas pueden ser tratadas como binarias.
La transmisin de la seal desde una neurona particular es llevada a cabo por
la concentracin de iones en los axones de la neurona (potasio, sodio,
cloroide).
Axn de
Otra
neurona

DENDRITA
S

Dendrita
de
Otra
neurona

SOM
A
Unin
sinptica
Axn de
Otra
neurona
PROPIEDADES DE LAS NEURONAS BIOLIGICAS
1. El elemento de procesamiento recibe varias seales.

[Type text]
2. Las seales pueden ser modificadas por los pesos de las sinapsis
receptoras.
3. El elemento de procesamiento suma as entradas escaladas.
4. Bajo adecuadas circunstancias (suficiente entrada), la neurona trasmite
una sola salida.
5. La salida de una neurona particular puede ir a otras neuronas (brazos del
axn).

Redes neurales artificiales son un sistema de procesamiento de informacin


que tiene ciertas caractersticas en comn con redes neurales biolgicas, como
son:
1. El procesamiento de la informacin ocurre en varios elementos llamados
neuronas.
2. Seales pasan ente neuronas a travs de una conexin.
3. Cada conexin tiene un peso asociado, el cual, n una tpica red neural,
multiplica la seal transmitida.
4. Cada neurona aplica una funcin de activacin (tpicamente no lineal) a
la entrada de la red (suma de las seales de entradas escaladas) para
determinar la seal de salida.
5. Procesamiento de la informacin es local.
6. La memoria es distribuida:
a) La memoria de largo plazo reside en la sinapsis de la memoria o
peso.
b) La memoria de corto plazo corresponde a las seales enviadas a las
neuronas.
7. La fuerza de la sinapsis puede ser modificada.
8. Los neurotransmisores de las sinapsis pueden ser excitadores o
inhibidores.
9. Los sistemas neurales son tolerantes a fallas en 2 sentidos:
a) Reconoce seales de entrada que son algo diferentes.
b) Son insensivas a pequeos daos de la red o con mayores daos
pueden ser re-entradas.
Las redes neurales se caracterizan por:
1. Arquitectura.- Es el patrn de conexin entre neuronas.
2. Entrenamiento.- Es el mtodo de determinar los pesos de las conexiones.
3. Funcin de activacin.- Es lo que dispara a la neurona.
Los pesos en una red neural representan la informacin siendo usada por la red
para solucionar un problema.
Problemas resueltos para redes neurales:

[Type text]
1.
2.
3.
4.
5.

Almacenamiento y recuperacin de datos o patrones.


Clasificacin de patrones.
Mapeo de patrones de entrada a patrones de salida.
Agrupacin de patrones similares.
Encontrar la solucin de problemas de optimizacin con restricciones.

ARQUITECTURAS TIPICAS
Red neural UNICAPA

Feed fordware (Alimentacin hacia adelante)


Fully connected (completamente conectada)
Red neural MULTICAPA

[Type text]

Puede resolver problemas ms difciles que las de una capa, pero el


entrenamiento es ms difcil.
Red neural RECURRENTE

Existen rutas de seal de lazo cerrado desde una unidad hacia s misma

[Type text]

Poniendo los pasos:


Existen 2 tipos de entrenamiento:
1. Supervisado.- el entrenamiento es llevado a cabo presentando una
secuencia de vectores de entrenamiento, cada uno con un vector de
salida destino asociado. Los pesos son ajustados de acuerdo con el
algoritmo de aprendizaje.
2. No supervisado.- Redes neurales auto-organizadas agrupan vectores de
entrada similares juntos sin el uso de datos de entrenamiento. Una
secuencia de vectores de entrada es provista pero no especifican
vectores de destino. La red modifica los pesos de tal manera que los
vectores de entrada ms similares son asignados a la misma unidad de
salida.

FUNCIONES DE ACTIVACION COMUNES


1. Funcin identidad

2. Funcin binaria

[Type text]
3. Binaria sigmoide

4. Simoigde bipolar

g ( x ) =2 F ( x )1=

g' ( x ) =

2
1ex
1=
1+ ex
1+ex

[1+ g ( x ) ] [1g ( x ) ]
2

1.2HISTORIA
1.2.1 Modelo [Mc calloch&pitts,1943]
Establecieron que combinando algunas simples neuronas en un sistema neural,
es la fuente de un poder computacional incrementado. Los pesos que pusieron
en las neuronas fueron de tal forma que desarrollaron una funcin lgica
simple. El flujo de informacin a travs de la red asume que hay una unidad de
tiempo para que la seal viaje de una neurona a la siguiente.
Aprendizaje de [hebb, 1949] diseo la primera ley de entrenamiento de redes
neurales artificiales. Su premisa fue que si 2 neuronas estaban activas
simultneamente, entonces la fuerza de conexin entre ellas debera de ser
incrementada.

[Type text]
1.2.2 Percepton [block, 1962, Minsky & Ppert, 1988; Rusenbaltt, 1962]
Se prob que la regla de aprendizaje del perceptron (a diferencia de las de
hebb) converge que los pesos correctos si existen los pesos que solucionan el
problema
ADALINE [widrow & hoff,1960] desarrollaron un ERROR cuadrtico medio
menor. La regla es llamada ADAptative Linear NEuron Backpropgation. Se
estableci un mtodo general de entrenamiento de una red multicapa. El
mtodo propaga informacin de los errores en las unidades oculta.

1.2.3 ANNs vs AI (1943-1955)


El primer trabajo recoocidi como AI fue hecho por Warren Mc Calloch & Walter
Pitts(1943). Ellos manejaron 3 fuentes: conocimiento de la fisiologa bsica y
funciones de las neuronas en el cerebro; un analicis formal de lgica
prepocicional de Russell & hitehead; y teora de computacin de turing. Ellos
propusieron un modelo de neurona artificial en la cual cada neurona es
caracterizada por estar en ON o OFF se pone en ON en respuesta de la
estimulacin por un numero deficiente de neuronas vecinas.
1.2.4 Redes auto asociativas de [Hopfield, 1987]
Desarrollo de redes neurales basadas en pesos fijos y activaciones adaptivas
para solucionar problemas con limitaciones.
1.3Estimador libre de modelo
Las redes neurales son estimaciones libres de modelo y sistemas dinmicos.
Esto es, el sistema usualmente no puede ser exactamente descrito por un
conjunto de ecuaciones analticas y no puede ser controlado por los mtodos
clsicos. Trata con la relacin de salida a entrada incluyendo varios parmetros
juntos.

La red neural de McCalloch-Pitts


Requerimientos:
1. La activacin de la neurona es binaria. Esto es, en cualquier unidad
de tiempo, la neurona dispara (tiene una activacin de 1) o no (tiene
una activacin de 0).
2. Las neuronas estn conectadas a travs de rutas pesadas.
3. La ruta de conexin es ex citatoria si el peso de la ruta es positivo, de
otra manera es inhibitoria.

[Type text]
4. Cada neurona tiene umbral fijo tal que si la entrada a la neurona es
ms grande que el umbral, la neurona dispara.
5. El umbral es puesto de tal manera que la inhibicin es absoluta. Estos
es, cualquier entrada inhibitoria no cero previene a la neurona a
disparar.
6. Toma una unidad de tiempo para una seal pasar a travs de una
conexin entre neuronas.
Algoritmo
Se utiliza el anlisis en vez de un algoritmo de entrenamiento para poner los
pesos y los umbrales de la funcin de activacin de las neuronas

Ejemplo patrn de entrada AND


Entradas
X1
1
1
0
0

X2
1
0
1
0

Salid
a
Y
1
0
0
0

X1

W=1

Y
2
Y

Y_
IN

2
1
1
0

= W1
X1
= 1*
1
= 1*
1
= 1*
0
= 1*
0

+ W2
X2
+ 1*1
+ 1*0
+ 1*1
+ 1*0

Ejemplo patrn de entrada OR


Entradas

Salida

X2

W=1

[Type text]
X1
1
1
0
0

Y_I
N

2
1
1
0

=
=
=
=
=

X2
1
0
1
0
W1
X1
1*1
1*1
1*0
1*0

+
+
+
+
+

Y
1
1
1
0
W2
X2
1*1
1*0
1*1
1*0

W=1

X1

Y
1
Y

X2

W=1

Ejemplo patrn de entrada AND NOT


Entradas
X1
X2
1
1
1
0
0
1
0
0

Y_I

=
0 =
1 =
-1 =
0 =
N

W1
X1
1*1
1*1
1*0
1*0

Salida
Y
0
1
0
0

W2
+ X2
+ -1*1
+ -1*0
+ -1*1
+ -1*0

Ejemplo patrn de entrada XOR


Entradas

Salida

X1

W=1

Y
1
Y

X2
W=1

[Type text]
X1
1
1
0
0

Y_I

=
0 =
1 =
-1 =
0 =
N

X2
1
0
1
0
W1
X1
*1
*1
*0
*0

+
+
+
+
+

Y
0
1
1
0
W2
X2
*1
*0
*1
*0

X1

X2

Reporte de practica

W=

portada
ndice
ndice de figuras
ndice de tablas
1. introduccin
2. marco teorico
3. planteamiento del problema
4. material utilizado
5. metodologa
6. desarrollo
7. resultados
8. conclusiones
Bibliografia
apendices

W=

Potrebbero piacerti anche