Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Curso:
Inteligencia Artificial
Ciclo:
2015-0
Preparado por:
Revisado por:
Bruno Vargas Tamani
ndice
I.
Moscaiza M.,
Omar Neyra R.
Ral
INTRODUCCIN.....................................................................................5
II.
ANTECEDENTES..................................................................................6
III.
OBJETIVOS.........................................................................................7
IV.
ALCANCE............................................................................................ 8
V.
VI.
VII.
DESARROLLO..............................................................................19
VIII.
CONCLUSIONES...........................................................................21
IX.
BIBLIOGRAFIA...................................................................................22
Moscaiza M.,
Omar Neyra R.
Ral
INDICE DE FIGURAS
Figura 1 Aprendizaje por Correccin de Error.................................................................................12
Figura 2. Neurona Artificial.............................................................................................................. 14
Figura 3. Umbral neuronal............................................................................................................... 14
Figura 4. Cambio estado por sumatoria.......................................................................................... 15
Figura 5. Capa de nodos de entradas, capa de neuronas ocultas y capa de neuronas de salida...15
Figura 6. Definicin de neuronas por pixels.....................................................................................16
Figura 7. Vectores........................................................................................................................... 16
Figura 8. Patrn de entrada letra A.................................................................................................. 17
Figura 9. Letra A con ruido............................................................................................................... 18
Figura 10. Red neuronal de dos capas............................................................................................ 19
Figura 11. Programa iniciado con red cargada................................................................................20
Figura 12. Digitalizacin de trazos................................................................................................... 21
Figura 13. Reconocimiento de caracteres.......................................................................................22
Figura 14.Simulando una imagen con ruido....................................................................................22
Figura 15. Adicin del valor requerido por el aprendizaje supervisado............................................23
Figura 16. Aplicando el aprendizaje no supervisado.......................................................................24
Figura 17. Reconocimiento de aprendizaje.....................................................................................24
Figura 18. Mtodo de aprendizaje no supervisado..........................................................................25
Figura 19. Reconocimiento de carcter........................................................................................... 26
Figura 20. Renombrando el carcter............................................................................................... 26
Figura 21. Aplicando la red aprendida con otros caracteres............................................................27
I.
Moscaiza M.,
Omar Neyra R.
Ral
Introduccin
II.
Moscaiza M.,
Omar Neyra R.
Ral
Antecedentes
Los primeros modelos de redes neuronales datan de 1943 por los neurlogos
McCulloch y Pitts. Aos ms tarde, en 1949, Donald Hebb desarroll sus ideas
sobre el aprendizaje neuronal, quedando reflejado en la "regla de Hebb". En 1958,
Rosemblatt desarroll el perceptrn simple, y en 1960, Widrow y Hoff
desarrollaron el ADALINE, que fue la primera aplicacin industrial real.
En los aos siguientes, se redujo la investigacin, debido a la falta de modelos de
aprendizaje y el estudio de Minsky y Papert sobre las limitaciones del perceptrn.
Sin embargo, en los aos 80, volvieron a resurgir las RNA gracias al desarrollo de
la red de Hopfield, y en especial, al algoritmo de aprendizaje de retropropagacin
(BackPropagation) ideado por Rumelhart y McLellan en 1986 que fue aplicado en
el desarrollo de los perceptrones multicapa.
Un ejemplo tpico de red neuronal aplicada al reconocimiento de patrones son los
OCR o programas de reconocimiento ptico de caracteres escritos. De acuerdo
con Werbos (1998) el 50% de los sistemas de OCR se basan en redes
neuronales.
III.
Moscaiza M.,
Omar Neyra R.
Ral
Objetivos
3.1. General
Demostrar es uso prctico que tiene las redes neuronales aplicadas en los
sistemas de reconocimiento ptico de caracteres (OCR)
3.2. Especficos
IV.
Moscaiza M.,
Omar Neyra R.
Ral
Alcance
El presente trabajo tendr como finalidad dar a conocer los conceptos sobre redes
neuronales, y su importancia en el proceso de reconocimiento ptico de
caracteres (OCR).
Como funciona esta metodologa utilizando los principios y fundamentos de
inteligencia artificial, es lo que el equipo de trabajo pretende resolver con la
elaboracin del presente trabajo.
Tambin, se demostrara un caso prctico sobre el tema es cual es un software,
donde se podr entender cmo funcionan las redes neuronales y como mediante
el aprendizaje va mejorando el OCR.
V.
Moscaiza M.,
Omar Neyra R.
Ral
Las redes neuronales artificiales (RNAs) o Neuronal Networks Artificial (NNS) son
una rama destacada de la inteligencia artificial, son algoritmos matemticos que
utilizan una estructura jerrquica, los cuales intentan imitar el comportamiento de
cerebro humano, destacando el aprendizaje atreves de la experiencia y la
extraccin de conocimiento a partir de un conjunto de datos.
Los elementos bsicos del algoritmo de redes neuronales artificiales:
Una regla de propagacin. Con las entradas y los pesos se suele hacer
algn tipo de operacin para obtener el valor del potencial.
Moscaiza M.,
Omar Neyra R.
Ral
entrada y emiten salidas hacia los nodos de salida, en ellos se lleva e acabo el
procesamiento de la informacin.
Los pesos se pueden modificar durante el entrenamiento de la red neuronal, el
aprendizaje es el proceso en el cual la red neuronal crea, modifica o destruye sus
pesos en respuesta a una informacin de entrada. Una red neuronal es entrenada
con compartimiento normal o anormal, estos valores dependen de la forma en que
se desee detectar una intrusin. En un sistema de deteccin de intrusos la red es
entrenada para prediccin de una accin o comando de usuario.
A medida que la red neuronal artificial aprende el conjunto de datos, los pesos de
conexin se cambian las conexiones con importancia permanecen y las
conexiones sin relevancia son castigadas. Los datos se escriben en los nodos de
entrada, procesados a travs de los nodos ocultos, y los pesos de conexin a los
nodos de salida son ajustados.
Mediante su empleo es posible detectar variaciones de ataques o de carcter
desconocidos, que difieren de los patrones iniciales con que fue entrenada la red.
Las redes neuronales artificiales (RNAs) estn inspiradas en el sistema lgico
natural, como es conocido en este sistema la neurona es la unidad de
procesamiento y aunque las (RNAs) sean mucho menos complejas en un sistema
informtico tambin realizan clculos complejos para procesar informacin. (Daz,
2012)
Las redes neuronales artificiales se clasifican en base a su paradigma de
aprendizaje, cada una de ellas ha sido diseada para fines ms o menos
especficos, algunos tipos son:
Moscaiza M.,
Omar Neyra R.
Ral
capa
oculta
una
capa
de
salida.
(Diez,
2003)
Una red de funciones de base radial es una red neuronal que utiliza
funciones de base radial como funciones de activacin. Este es un
algoritmo hibrido ya que su mtodo de aprendizaje consta de dos fases, la
fase no supervisada en la cual trabaja con la capa oculta y la fase
supervisada donde los pesos y los valores de la capa de salida.
10
quantization (LVQ).
- Es un
Moscaiza M.,
Omar Neyra R.
Ral
algoritmo
de
Redes de pesos fijos.- Para las redes de pesos fijos no hay ningn tipo de
entrenamiento.
11
Moscaiza M.,
Omar Neyra R.
Ral
wij = xi (dj - xj )
donde:
wij Variacin en el peso de la conexin entre el i-simo nodo y el j-simo.
Umbral en el aprendizaje que regula velocidad
y precisin (0 < 1)
xi Salida del i-simo nodo
xj Salida del j-simo nodo
dj Valor de salida deseado del j-sima unidad de procesamiento
Regla de mnimo Error cuadrado
Widrow y Hoff definieron una funcin que permita cuantificar el error global
cometido en cualquier momento durante el proceso de entrenamiento,
agilizando este proceso
12
Moscaiza M.,
Omar Neyra R.
Ral
La frmula calcula
n = nmero de nodos de salida
p = nmero de tramas de entrenamiento
Error cometido en el aprendizaje de la k-sima trama.
Se trata de modificar los pesos para que las conexiones de la red
minimicen esta funcin de error, se puede hacer de manera proporcionada
a la variacin relativa del error.
Moscaiza M.,
Omar Neyra R.
Ral
Donde:
X1Xn indican un bit que corresponden al carcter que estoy tratando de
reconocer y son las entradas de la red.
W1Wn son los pesos de las entradas de la red. Cada X tiene su peso. El
valor para W vara entre 0 y 1.
Y es la salida de la red y est en funcin de las entradas y sus respectivos
pesos.
En el contexto de las redes neuronales lo que est dentro de la elipse es el
proceso interno de la red y es donde se encuentra lo que se conoce como el
Umbral. Este es un escaln unitario y determina si se dispara o no una celular
neuronal.
14
Moscaiza M.,
Omar Neyra R.
Ral
0 >= Wi <= 1
Xi * Wi > a
Cuando la sumatoria es mayor que a cambia de estado; es decir, atraviesa o no
el umbral.
15
Moscaiza M.,
Omar Neyra R.
Ral
16
Moscaiza M.,
Omar Neyra R.
Ral
Figura 7. Vectores
17
Moscaiza M.,
Omar Neyra R.
Ral
carcter igual o similar que ingrese nuevamente a ella. Siempre habr un margen
de error.
Supongamos que ingresamos un documento escaneado y le pedimos al sistema
que reconozca los caracteres impresos en l y asumamos que hay cierto ruido o
suciedad en la hoja y la letra A aparece en el documento como muestra la
siguiente figura:
VII. DESARROLLO
Este software permite aprender y reconocer caracteres y smbolos. Usa redes
neuronales para identificar los caracteres trazados con el mouse en ese espacio.
Fcilmente se le puede ensear a reconocer nuevos caracteres. La precisin del
18
Moscaiza M.,
Omar Neyra R.
Ral
Recog utiliza una red neural de dos capas grande (pero simple) para aprender y
reconocer patrones. La imagen de la escritura a mano se digitaliza en una rejilla
de neuronas de entrada. Cada respuesta posible est representada por una sola
neurona de salida. Cada neurona de entrada est vinculado directamente a cada
neurona de salida (no hay capas ocultas). Como en la mayora de las redes
neuronales, la data (o programacin) se codifica en los vnculos entre las
neuronas. Si un enlace entre una neurona de entrada y una neurona de salida es
positiva, ello significara que si la entrada est en la puntuacin total para esa
neurona de salida se incrementa en una pequea cantidad. Si el enlace es
negativo, entonces se sigue que si la entrada est activada, la salida
correspondiente tendr su resultado disminuido en una cantidad. La neurona de
salida con la puntuacin ms alta (y por lo tanto la mejor coincidencia) se
considerad el ganador. Esto se conoce como una red competitiva. Para ver los
puntos fuertes o el peso de los vnculos entre la rejilla de entrada y una de salida
19
Moscaiza M.,
Omar Neyra R.
Ral
20
Moscaiza M.,
Omar Neyra R.
Ral
21
Moscaiza M.,
Omar Neyra R.
Ral
la imagen digitalizado del trazo y luego de ello con una red previamente cargada,
en este caso (A, E, I, O, U, Y) procederemos a presionar el botn de reconocer.
Moscaiza M.,
Omar Neyra R.
Ral
23
Moscaiza M.,
Omar Neyra R.
Ral
24
Moscaiza M.,
Omar Neyra R.
Ral
25
Moscaiza M.,
Omar Neyra R.
Ral
26
Moscaiza M.,
Omar Neyra R.
Ral
Luego de haber reconocido se deber hacer doble click en el nombre del carcter
a fin de poder renombrarlo.
27
Moscaiza M.,
Omar Neyra R.
Ral
En esta imagen podemos observar como luego de haber entrenado una red no
supervisada,
el
reconocimiento
de
caracteres
funciona
correctamente,
28
Moscaiza M.,
Omar Neyra R.
Ral
VIII. CONCLUSIONES
1. Es evidente que el trmino redes neuronales artificiales abarcan una gran
variedad de diferentes paquetes de software con muchos tipos diferentes
de neuronas artificiales, arquitecturas de red y reglas de aprendizaje. Estas
diferentes redes pueden, a su vez, pueden aplicarse a una amplia gama de
funciones desde la fabricacin de cerveza hasta a una mejor comprensin
de las propiedades de los cerebros biolgicos en los que se basa.
2. Como resultado del desarrollo de este trabajo, concluimos que el uso de las
Redes Neuronales es una gran alternativa para la solucin de muchas
necesidades, no limitndose en el reconocimiento de caracteres sino que
usando esto como base para otras aplicaciones.
3. Con la ayuda del aplicativo es posible dar solucin a problemas ms
complejos como por ejemplo, reconocimiento y traduccin de texto,
resolucin de sudoku, identificacin de placas vehiculares, facturas, etc.
4. Una debilidad de la aplicacin es que es bsica, pero nos permite
comprender como se origina el proceso de reconocimiento de texto, los
pasos que se siguen y que mtodo se usa.
5. El ms notable es el hecho de que no puede manejar grandes variaciones
en la traslacin, rotacin o escala. Son necesarios unos pocos pasos de
pre procesamiento para poder implementarlo con el fin de dar cuenta de
estas variaciones, pero en general son difciles de resolver completamente
29
Moscaiza M.,
Omar Neyra R.
Ral
IX. BIBLIOGRAFIA
1. McCulloch, Warren; Walter Pitts (1943). "A Logical Calculus of Ideas
Immanent in Nervous Activity". Bulletin of Mathematical Biophysics 5 (4):
115133. doi:10.1007/BF02478259.
2. Hebb, Donald (1949). The Organization of Behavior. New York: Wiley.
3. Farley, B.G.; W.A. Clark (1954). "Simulation of Self-Organizing Systems by
Digital Computer".IRE Transactions on Information Theory 4 (4): 76
84. doi:10.1109/TIT.1954.1057468.
4. Rochester, N.; J.H. Holland, L.H. Habit, and W.L. Duda (1956). "Tests on
a cell assembly theory of the action of the brain, using a large digital
computer". IRE Transactions on Information Theory 2(3): 80
93. doi:10.1109/TIT.1956.1056810.
5. Hilera J, Martnez V. 1995. Redes neuronales artificiales: fundamentos,
modelos y aplicaciones. Madrid: Addison-Wesley Iberoamericana. RAMA. 390 p.
6. Snchez E, Alanis A. 2006. Redes neuronales: conceptos fundamentales
y aplicaciones a control automtico. Madrid. Prentice-Hall. 210.
7. Dowla F, Rogers L. 1996. Solving problems in environmental engineering
and geosciences with artificial neural networks. Cambridge. MIT Press.
310 p.
8. Bishop C, 2006. Neural Networks for Pattern Recognition. New York.
Oxford University Press. 504 p.
30