Sei sulla pagina 1di 15

UNIVERSIDAD DE LAS FUERZAS

ARMADAS ESPE-L
INGENIERA MECATRNICA
AUTOMATIZACIN INDUSTRIAL
Nombre:
Aroca Katherine
Escobar Luis
Loor Leopoldo
Curso:
Octavo
Departamento:
Energa y Mecnica
Docente:
Ing. Patricia Constante
NRC:
3308
Fecha de presentacin:
30/06/2016

INDICE
TEMA ................................................................................................................................ 3
OBJETIVOS ..................................................................................................................... 3
OBJETIVO PRINCIPAL ............................................................................................... 3
OBJETIVOS ESPECFICOS ........................................................................................ 3
MARCO TERICO ........................................................................................................... 3
RED NEURONAL ARTIFICIAL .................................................................................... 3
MODELO DE NEURONA ARTIFICIAL ....................................................................... 3
ARQUITECTURA DE LAS RNA .................................................................................. 4
APRENDIZAJE DE LAS RNA ..................................................................................... 4
PERCEPTRN ............................................................................................................. 5
APLICACIONES DEL PERCEPTRN ........................................................................ 6
MOTORES TAMIYA 70168 DOUBLE GEARBOX KIT ............................................... 6
LM741 ........................................................................................................................... 6
AMPLIFICADOR INVERSOR ...................................................................................... 7
AMPLIFICADOR NO INVERSOR ................................................................................ 8
SUMADOR INVERSOR ............................................................................................... 8
FOTORRESISTOR ....................................................................................................... 8
DESARROLLO Y RESULTADOS ................................................................................... 9
CONCLUSIONES ........................................................................................................... 10
RECOMENDACIONES .................................................................................................. 14
BIBLIOGRAFA .............................................................................................................. 14
ANEXOS ......................................................................................................................... 15

TEMA
CONTROL DE UN SEGUIDOR DE LUZ EN BASE AL ENTRENAMIENTO DE UN
GRUPO DE PERCEPTRONES.
OBJETIVOS
Objetivo principal
Implementar dos neuronas artificiales mediante amplificadores operacionales y
sensores de luz para el control de un carrito seguidor de luz.
Objetivos especficos

Entrenar e implementar un perceptrn que contenga dos fotoceldas para el


control de direccin del seguidor de luz.

Entrenar e implementar un perceptrn con interruptores para el control de


velocidad del seguidor de luz.

MARCO TERICO
Red neuronal artificial
Las redes neuronales artificiales (RNA) pueden estudiarse como aproximadores
universales, modelos matemticos basados en sistemas biolgicos, adaptados y
simulados en un sistema computacional. Los que se encuentran compuestos por un
nmero de unidades interconectadas. [1]
Modelo de neurona artificial
El modelo de Rumelhart y McClelland (1986) define un elemento de proceso (EP), o
neurona artificial, como un dispositivo que, a partir de un conjunto de entradas, xi
(i=1...n) o vector x, genera una nica salida y. [2]
X1

X2

X3

W i1

W i2

W in
Figura 1 Modelo de Neurona Artificial.

Esta neurona artificial consta de los siguientes elementos: un conjunto de entradas o


vector de entradas x, de n componentes, un conjunto de pesos sinpticos , una regla

de propagacin ( , ()), funcin de activacin () = ( ( 1), ()),funcin de


salida (), la que proporciona la salida (), en funcin del estado de activacin. [2]
Las seales de entrada y salida pueden ser seales binarias (0,1 neuronas de
McCulloch y Pitts), bipolares (-1,1), nmeros enteros o continuos, variables borrosas,
etc. [2]
La regla de propagacin suele ser una suma ponderada del producto escalar del vector
de entrada y el vector de pesos:
() =
Arquitectura de las rna
Es la estructura o patrn de conexiones de la red. Es conveniente recordar que las
conexiones sinpticas (conexin entre neuronas) son direccionales, es decir, la
informacin slo se transmite en un sentido.
Las neuronas suelen agruparse en unidades estructurales llamadas capas. Dentro de
una capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir tres tipos de
capas:

De entrada: reciben datos o seales procedentes del entorno.

De salida: proporcionan la respuesta de la red a los estmulos de la entrada.

Ocultas: no reciben ni suministran informacin al entorno (procesamiento interno


de la red).

Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede
haber conexiones intracapa o laterales y conexiones de realimentacin que siguen un
sentido contrario al de entrada-salida. [2]
Aprendizaje de las RNA
El aprendizaje es la clave de la flexibilidad de una red neuronal y es el proceso en el
que se adaptan las sinapsis, para que la red responda de un modo distinto a los
estmulos del medio. En una red neuronal toda la informacin adquirida se guarda en el
valor de cada peso sinptico. [3]
Hay tres conceptos fundamentales en el aprendizaje:
1. Paradigma de aprendizaje: informacin de la que dispone la red.
2. Regla de aprendizaje: principios que gobiernan el aprendizaje.
3. Algoritmo de aprendizaje: procedimiento numrico de ajuste de los pesos.
4

Existen dos paradigmas fundamentales de aprendizaje:


1. Supervisado: la red trata de minimizar un error entre la salida que calcula y la
salida deseada (conocida), de modo que la salida calculada termine siendo la
deseada.
2. No supervisado o autoorganizado: la red conoce un conjunto de patrones sin
conocer la respuesta deseada. Debe extraer rasgos o agrupar patrones
similares.
En cuanto a los algoritmos de aprendizaje, hay cuatro tipos:
1. Minimizacin del error: reduccin del gradiente, retropropagacin, etc. La
modificacin de pesos est orientada a que el error cometido sea mnimo.
2. Boltzmann: para redes estocsticas, donde se contemplan parmetros
aleatorios.
3. Hebb: cuando el disparo de una clula activa otra, el peso de la conexin entre
ambas tiende a reforzarse (Ley de Hebb).
4. Competitivo: slo aprenden las neuronas que se acercan ms a la salida
deseada.
Los algoritmos, y en general el proceso de aprendizaje, son complejos y suelen llevar
bastante tiempo computacionalmente hablando. Su ventaja es que una vez ha
aprendido, la red puede congelar sus pesos y funcionar en modo recuerdo o ejecucin.
[2]
Perceptrn
Un perceptrn en una estructura que posee ms de una regla de aprendizaje, puede
utilizarse con otros perceptrones u otro tipo de neurona artificial, para formar redes
neuronales ms complicadas Uno de los limitantes del mismo es la capacidad de
resolver funciones definidas por un hiperplano, es decir de dimensin N-1 contenida en
un espacio de dimensin N, que corte un espacio de dimensin N, un claro ejemplo se
da en el operador lgico XOR. [4]
En s un hiperplano es un plano de dos dimensiones que por medio de una lnea separa
a los elementos existentes en dos grupos. El perceptrn slo puede resolver una
funcin, si todos los posibles resultados del problema pueden separarse de sta forma
(en dos secciones) es decir, que no se combinen entre s.

Aplicaciones del perceptrn

Entrenar una red para formar el tiempo pasado de los verbos en ingls, leer texto
en ingls y manuscrito.

El Perceptrn multicapa (MLP) puede ser usado para la prediccin de una serie
de datos en el tiempo como la medicin de la demanda de gas y electricidad,
adems de la prediccin de cambios en el valor de los instrumentos financieros.

Prediccin de mercados financieros, diagnsticos mdicos, como una red


codificadora, sumador de enteros.

Transformar texto en ingles en sonido individual (representaciones fonticas) y


la pronunciacin con la utilizacin de un sintetizador de voz; cuenta con
aproximadamente 300 nodos de neuronas (siendo 80 en la capa escondida) y
20,000 conexiones individuales. [5]

Motores Tamiya 70168 Double Gearbox Kit


Los motores utilizados son de tipo DC, con reductores y llantas. En la tabla 1 se
muestran las caractersticas de los mismos.
Tabla 1 Caractersticas de operacin de los motores.
Caracterstica

Valor

Voltaje de operacin

3V

Opciones de reduccin

12.7:1, 38:1, 115:1, y 344:1

Velocidad

12300 rpm

Corriente

2100 mA

Torque

0.5 on-in3

LM741
El amplificador operacional LM741 necesita ser alimentado por una corriente continua,
independiente de la corriente que se desea amplificar, esta corriente continua es de 12V.
A continuacin, se presenta las partes de alimentacin de un amp-op y sus partes
inversoras y no inversoras, y tambin su salida.

Figura 2 Pines de conexin del A.O LM741.

Principales caractersticas

Alta impedancia (resistencia) de entrada: del orden de 1 MW, lo cual implica que
la intensidad de corriente por los terminales de entrada ser despreciable.

Baja impedancia de salida: del orden de 150 W, pudiendo atacar cualquier carga
(circuito) sin que su funcionamiento se modifique dependiendo del valor de sta.

Tensin mxima de alimentacin: Vcc = 18 V. Implica que la tensin de salida


nunca podr superar a la de alimentacin.

Alta ganancia de tensin en lazo abierto (sin conectar ningn componente entre
la salida y cualquiera de las entradas) con pequeos valores de tensin en los
terminales de entrada se consiguen grandes tensiones de salida. [6]

Aplicaciones
Usado principalmente en seguidores de tensin de ganancia unidad, amplificadores
inversores integradores, amplificadores no inversores y diferenciadores.
Amplificador Inversor
La entrada positiva est a masa, y la seal se aplica a la entrada negativa a travs de
R1, con retroalimentacin desde la salida a travs de R 2. [6]

Figura 3 Amplificador inversor.

1 2

Amplificador no inversor
La entrada Vi se aplica a la entrada positiva, y una fraccin de la seal de salida, V out,
se aplica a la entrada negativa a travs del divisor de tensin R 1 y R2. La seal de salida
VO est en fase con la de entrada. [6]

Figura 4 Amplificador inversor.

(1 + 2 )

Sumador inversor
Permite sumar algebraicamente varias seales analgicas.

Figura 5 Sumador inversor.

1 2 3
= ( +
+ )
1 2 3
Fotorresistor
Una fotorresistencia es un componente electrnico cuya resistencia disminuye con el
aumento de intensidad de luz incidente. Puede tambin ser llamado fotorresistor,
fotoconductor, clula fotoelctrica o resistor dependiente de la luz, cuyas siglas, LDR.
Su funcionamiento se basa en el efecto fotoelctrico. Un fotorresistor est hecho de un
semiconductor de alta resistencia como el sulfuro de cadmio, CdS. Si la luz que incide
en el dispositivo es de alta frecuencia, los fotones son absorbidos por las elasticidades
8

del semiconductor dando a los electrones la suficiente energa para saltar la banda de
conduccin. El electrn libre que resulta, y su hueco asociado, conducen la electricidad,
de tal modo que disminuye la resistencia. Los valores tpicos varan entre 1 M, o ms,
en la oscuridad y 100 con luz brillante.
DESARROLLO Y RESULTADOS

Entrenamiento del perceptron


El entrenamiento de las neuronas es el objetivo principal del presente trabajo, en donde
la primera neurona decidir la direccin del seguidor de luz, el que funciona con dos
fotorresistencias, cuyas funciones radican en permitir girar hacia la izquierda o hacia la
derecha por medio de un motor DC, dependiendo qu sensor se active con la incidencia
de luz. La segunda neurona ser entrenada para decidir a qu velocidad va a girar el
seguidor de luz.
Implementacion de perceptron
El tipo de entrenamiento que se us para ambas neuronas fue el del perceptrn
convencional. El perceptrn es un modelo que nos ayuda a dividir patrones linealmente
separables y lo que hace este entrenamiento es deducir cundo una entrada pertenece
a una de las dos clases. Por esta razn decidimos construir tablas de verdad que fueran
linealmente separables para cada una de las neuronas, y de acuerdo con dichas tablas
realizamos su entrenamiento. Las tablas de verdad requeridas son las siguientes:
Tabla 2 Tabla de verdad para la neurona de direccin.

V1

V2

Salida

Tabla 3 Tabla de verdad para la neurona de velocidad.

V1

V2

Salida

1 0
En cada uno de los casos se tiene un umbral = 2.
La inicializacin de los pesos de la neurona de velocidad fue:
1 = 1
2 = 1
= 1
Los pesos son:
1 = 0.55
2 = 0.45
= 1.14
Para poder implementar las neuronas por medio de amplificadores operacionales se
realiz el siguiente anlisis: sabemos que para un perceptrn el clculo de la salida
aplicado a nuestro caso se hace por medio de la siguiente ecuacin:
() = [1 1 + 2 2 ]

. 1.1.

Para cada una de las combinaciones de entrada tenemos un resultado que es el que se
evala en la funcin. Cabe mencionar que el 0 equivale a 0 V y el 1 a 5V.
Neurona para la direccin
Para el caso de la neurona de direccin:
00 0
= 1.2(2) = 2.4
01 0
= 0.5(5) 1.2(2) = 0.1
10 1
= 3(5) 1.2(2) = 12.6
101
= 3(5) + 0.5(5) 1.2(2) = 15.1

10

De acuerdo con la EC. 1.1, se hace la sumatoria de todos los pesos multiplicados por
sus respectivas entradas, esto por medio de amplificadores operacionales se logra con
un sumador inversor.
Los valores de las resistencias 2 y 3 se obtienen igual que en el caso del valor del
umbral. La resistencia se fi ja en 10 .
Para el caso de 1 .
= 10
= 5 ( 1 5)
= 15 ( = 3)
3 = 3.3
Para el caso de 2 .
= 10
= 5 ( 1 5)
= 2.5 ( = 0.5)
2 =

10
(5) = 20
=
(2.5)

2 = 20

Figura 6 Funcionamiento de la red neuronal para la direccin.

11

Neurona para la velocidad


00 0
= 1.14(2) = 2.2
01 0
= 0.45(5) 1.14(2) = 0.03
10 1
= 0.55(5) 1.14(2) = 0.47
011
= 0.55(5) + 0.45(5) 1.14(2) = 2.72
Para la neurona de velocidad, el caso de la entrada del ( ) se resuelve tambin
por medio de otro amplificador que logre darnos la salida que deseamos, que en este
caso es de -2.28. El amplificador operacional que se utiliz fue un inversor, gracias a
que el valor de umbral se resta. Y su configuracin es la misma que us para el umbral
de la neurona de direccin.
Fijamos el valor de la resistencia 2 y obtenemos el valor de la resistencia 1 . El es
de 2V, que fue el valor que le damos al umbral, y el de salida es el que tenemos al
multiplicarlo por su peso.
= 2
= 2.28
1 = 10
1 =

2
10
=
(2)

(2.28)
2 = 8.7

Los valores de las resistencias 2 y 3 se obtienen igual que en el caso del valor del
umbral. La resistencia se fija en 10K.
Para el caso de V1.
= 10
= 5 ( 1 5)
= 2.75 ( = 0.55)

12

2 =

10
(5) = 18.181
=
(2.75)

2 = 18.181

Para el caso de 2
= 10
= 5 ( 1 5)
= 2.25 ( = 0.45)
2 =

10
(5) = 22.22
=
(2.25)

Figura 7 Figura 8 Funcionamiento de la red neuronal para la velocidad.

En ambos casos (tanto para la neurona de direccin como para la neurona de velocidad)
la salida del sumador es de signo contrario al que en realidad debe de tener, debido a
la configuracin inversora que se utiliz. Por ello se us un inversor de ganancia unitario
para cambiar el valor del voltaje de salida que tiene el sumador.
La salida se tiene que evaluar en una funcin, en nuestro caso esta evolucin se hace
por medio de un amplificador operacional que tiene la configuracin de comparador.
El valor que sale del ltimo inversor se compara con 2.5V, si el valor es mayor se va a
1 (5V) y si el valor es menor a 2.5V se va a 0 (0V).

13

Una vez que las neuronas se encuentran entrenadas y listas con los amplificadores
operacionales, se desarrolla la parte del controlador de los motores.

La neurona de direccin funciona por medio de sensores de luz y la neurona de


velocidad mediante dos interruptores esto se lo realizo mediante la programacin de un
PIC16F628A. Despus de armada cada una de las partes, se procede a la integracin
total que permite evaluar en diferentes condiciones el desempeo del clasificador lineal
(perceptrn).
CONCLUSIONES

Los amplificadores operacionales sirven para generar la red neuronal artificial,


los mismos que mediante diferentes configuraciones como sumar y multiplicar
permiten el movimiento de los motores y la recepcin de una seal por medio de
las fotorresistencias.

El control de la direccin y velocidad del perceptrn mediante la implementacin


del perceptrn permiti verificar los resultados elaborados en las tablas de
resultados.

RECOMENDACIONES
Polarizar correctamente todos los elementos del seguidor de luz para el correcto
funcionamiento del mismo.

La comprobacin experimental probar cada una de las etapas de la red neuronal


para verificar los datos obtenidos en las tablas de resultados.

BIBLIOGRAFA

[1] Varios.

[En

lnea].

Available:

http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/navarrete_g_j/capitulo2.pdf.
[ltimo acceso: 28 Junio 2016].
[2] J.

Avellano,

Redes

Neuronales,

[En

lnea].

Available:

http://avellano.usal.es/~lalonso/RNA/. [ltimo acceso: 28 Junio 2016].


[3] F. I. y. C. Saavedra, Redes Neuronales Artificiales, [En lnea]. Available:
http://www.uta.cl/charlas/volumen16/Indice/Ch-csaavedra.pdf. [ltimo acceso: 28
Junio 2016].

14

[4] A.

Lezcano,

SlideShare,

[En

lnea].

Available:

http://es.slideshare.net/aerdna07/regla-de-aprendizaje-del-perceptrn-simple.
[ltimo acceso: 28 Junio 2016].
[5] Perceptron,

[En

lnea].

Available:

http://electronica.com.mx/neural/informacion/perceptron.html. [ltimo acceso: 28


Junio 2016].
[6] EcuRed, [En lnea]. Available: http://www.ecured.cu/Lm741. [ltimo acceso: 28
Junio 2016].

ANEXOS

Fotografa 1 Prototipo seguidor de luz funcional.

15

Potrebbero piacerti anche