Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Resumen Abstract
Dotar a los robots con la habilidad de poder ver el Giving robots the ability to see the environment that
entorno que los rodea es fundamental en sistemas que surrounds them is fundamental in systems that require
involucren la localización de objetos. En este artículo object detection and location. In this paper, we present a
se presenta el desarrollo de un robot manipulador de design for a 4 degree of freedom manipulator robot able
4 grados de libertad con el objetivo de clasificar to classify different color objects using RGB filter
objetos de diferentes colores utilizando técnicas de techniques. First, we model the forward and inverse
filtrado RGB. Primero, se desarrolla el modelo kinematics for our proposed robot using the Denavit-
cinemático directo e inverso del robot mediante el Hartenberg algorithm. Then, we apply some image
algoritmo de Denavit-Hartenberg. Después, se processing techniques in the images acquired from the
muestra la etapa del procesamiento de las imágenes webcam integrated top on the robot base. Finally, we
obtenidas mediante la cámara web integrada en sobre show the process of the objects position detection inside
la base del robot. Finalmente, se muestra el proceso the image and use this information to obtain the real
de detección de posición de los objetos dentro de la coordinates relative to the robot workspace and reference
imagen y se usa esta información para obtener las axis. Results shown that integrating the inverse
coordenadas reales relativas al espacio de trabajo del kinematics model and the RGB filter techniques
robot manipulador. Los resultados obtenidos accomplish the proposed objective of classification under
muestran que la integración del modelo cinemático controlled light conditions. In future works, unsupervised
inverso en conjunto con el filtrado RGB cumplen con learning algorithms can be used to identify the color
el objetivo propuesto de clasificación bajo objects under irregular light conditions.
condiciones de luz controladas. En trabajos futuros se
puede hacer uso de algoritmos de aprendizaje no Computer Vision, Image Processing, Manipulator
supervisado para la identificación de objetos de color Robot, Filters.
bajo condiciones de luz irregulares.
Citación: ROSAS-ARIAS, Leonel, VALLEJO-MERAZ, Jair de Jesus, PÉREZ-BAILÓN, Waldemar, ROJAS-CID, Jesús
Daniel. Robot clasificador de objetos de color utilizando técnicas de filtrado RGB.Revista de Prototipos Tecnológicos 2017,
3-9: 56-62.
©ECORFAN-Spain www.ecorfan.org/spain
51
Articulo Revista de Prototipos Tecnológicos
Diciembre, 2017 Vol.3 No.10 50-59
Donde:
Detección de objetos
Post-Procesamiento
Figura 4 Componentes RGB de una imagen.
Fuente: Elaboración propia Una vez obtenida la imagen binaria para cada
tipo de objeto de color, se identifican todos los
Se crea una imagen binaria del mismo objetos binarios utilizando un algoritmo de
tamaño para cada color que queremos identificar etiquetado mediante pixeles vecinos. Esto
en función de estos componentes RGB. La produce una imagen en la que cada grupo de
nueva imagen binaria se define por: píxeles con el valor 1 tienen su propio
identificador numérico. Esta técnica de
etiquetado de objetos puede producir problemas
cuando pequeños grupos aislados de píxeles
(ruido) se detectan como un objeto de interés.
Para evitar esta situación, se reconstruye una
nueva imagen binaria siguiendo las siguientes
reglas:
𝛿𝐵 = 𝑋 ⊕ 𝐵 (29)
En esta sección, mostramos el proceso de Una vez obtenidas las coordenadas para cada
integración entre nuestro robot y el sistema de objeto referenciadas al sistema de coordenadas
identificación de color propuesto. También, del robot se continúa con el proceso de
describimos el algoritmo utilizado por el robot clasificación. Primero, el robot se coloca en la
para realizar la clasificación de los diferentes posición inicial para asegurarse de que la línea
objetos de color. de visión de la cámara no está obstruida por si
mismo. Después, el robot clasifica todos los
En la Figura 9 se muestra la relación objetos de un mismo color colocándolos en una
entre los ejes de coordenadas de la imagen y los posición predefinida. Este proceso se repite para
ejes de coordenadas del robot. Para convertir las todos los objetos de diferentes colores.
coordenadas dadas por nuestro sistema de
detección de objetos al sistema de coordenadas Resultados
del robot, se realiza un proceso de mapeo
descrito por: En esta sección presentamos pruebas de
simulación para distintos parámetros de
orientación, así como el seguimiento de
trayectorias utilizando nuestro modelo
cinemático inverso. Así mismo, presentamos
Donde R es el valor de salida resultados comparativos de nuestro sistema en
correspondiente en cm; px es la coordenada del un ambiente controlado.
centroide en píxeles; 𝑝𝑥𝑚𝑖𝑛 y 𝑝𝑥𝑚𝑎𝑥 son la
mínima y máxima posible coordenada de Simulación de la cinemática inversa
entrada en píxeles (Es decir, 0 a 320 para el eje
La simulación es una herramienta debido a que
x y 0 a 240 para el eje y), y 𝑟𝑒𝑎𝑙𝑚𝑖𝑛 y 𝑟𝑒𝑎𝑙𝑚𝑎𝑥
nos ayuda a predecir el comportamiento de
son las coordenadas mínimas y máximas
nuestro sistema en el mundo real. En este trabajo
posibles en cm. Las coordenadas maximas y
se ha hecho uso del software de programación
minimas en centímetros fueron obtenidas
MATLAB para todas las simulaciones del robot.
previamente utilizando los limites del rango de
La Figura 10 muestra los resultados de la
visión de la cámara web configurada a una
simulación para un punto situado en P(20,0,0)
resolución de 320x240 pixeles en formato JPG.
utilizando cuatro diferentes valores de 𝜙. Los
valores de 𝜙 se muestran a continuación: Arriba
izquierda: 𝜙= -90°, arriba derecha: -45°, abajo
izquierda: 0° y abajo derecha: 90°.
Si en el filtro los parámetros están [4] Miguel Angel Flores Montes, Luis Arturo
configurados correctamente, teóricamente más Medina Muñoz, Jesus Mayorquin Robles, Omar
de 16 millones de colores pueden ser Adrian Garcia Muñoz. (marzo 2017). Detección
clasificados cuando se utiliza una imagen con de Objetos a Color en Tiempo Real con Técnicas
profundidad de 8 bits por pixel. Sin embargo, de Visión Artifical y Arduino. Revista de
debido a cambios en las condiciones de Prototipos Tecnológicos, 3, 1-6.
iluminación esto no es posible en aplicaciones
en el mundo real. Se puede notar que existe una [5] Sergio Diaz, Citlalih Gutierrez, Daniel
limitación potencial: objetos del mismo color Valdez, Bany Hernandez. (diciembre 2016).
debe estar separados una distancia razonable Diseño y control en tiempo real de un brazo de
para que el robot pueda identificarlos robot mediante una interfaz virtual. Revista de
individualmente y no como un objeto de grandes Prototipos Tecnológicos, Vol. 3, 49-60.
dimensiones.
[6] J. Esqueda Elizondo, D. Hernandez Manzo,
En trabajos futuros, se proyecta E. Bermudez Encarnación, L. Jimenez Beristain,
implementar algoritmos para detectar número de M. Pinto Ramos. (diciembre 2016).
objetos adyacentes para cancelar esta limitación. Manipulación de un brazo robótico mediante
Además, se proyecta implementar técnicas de señales electroencefalográficas. Revista de
umbrales dinámicos basados en parámetros Tecnología e Innovación, Vol. 7, 89-98.
estadísticos que permitan obtener una mayor
generalidad en la detección del color de forma [7] Seed Niku. (2010). Introduction to Robotics.
automática. Así mismo, se puede concluir que el John Wiley & Sons.
prototipo del sistema de visión por computadora
tiene como ventaja poder ser implementado en [8] S. HengHui, L. MinZhou, L. Wei and D.
sistemas robóticos industriales debido a la Xiang. (2011). Virtual link-lengths
relativa facilidad de programación de los approximating method for forward kinematics
algoritmos en cualquier lenguaje de of multiple motioncoupled linkage mechanism.
programación que cuente con herramientas de International Conference on Electronic &
adquisición de imágenes. Mechanical Engineering and Information
Technology, 2318-2323.
Reconocimiento
[9] H. A. Hendarto, Munadi and J. D. Setiawan,
Los autores agradecen al Instituto Tecnológico . (2014). ANFIS application for calculating
de Lázaro Cárdenas por brindar el soporte inverse kinematics of programmable universal
económico necesario para la realización de este machine for assembly (PUMA) robot. The 1st
trabajo. International Conference on Information
Technology, Computer, and Electrical
Referencias Engineering, 35-40.
[1] Juan Du. (2006). Visual Navigation base on [10] Jian Ding, Jianguang Li, Yingxue Yao,
Floor Feature Segmentacion for Indoor Mobile Chuntian Xu and Huaijing Jing. (2013). A
Robot. Wuhan University of technology. forward kinematics based statistical method for
the pose errors of a 6-dof parallel manipulator.
[2] Michalos G. (2012). Robot Path Correction IEEE International Symposium onAssembly
Using Stereo Vision System. Procedia CIRP, and Manufacturing (ISAM), 248-251.
Vol.3.