Sei sulla pagina 1di 8

Habilitación de Humanoide Rodante con

Vision 3D
Carlos Alberto Ramos López
laboratorio de robótica
instituto de ingenierı́a y tecnologı́a
universidad autónoma de ciudad juárez

Resumen 2. Trabajo Relacionado


Se plantea la idea para la creación de un robot de servi-
cio orientado a telecomunicación bidireccional teleoperado con
En [10] se desarrolló un método para el seguimiento de
cierto grado de autonomı́a para ejecución de tareas comunes,
personas por medio de la detección de rostros utilizando
como lo son evasión de obstáculos y seguimiento de la persona
un SVM modificado. Las SVM (Máquinas de Vectores
con la cual se habla, mediante visión 3D.
de Soporte) son un conjunto de métodos de aprendizaje
supervisado utilizados principalmente para clasificación.
Una vez se ha segmentado el rostro, se cambia el modo
de sensado al LIDAR dado que la persona puede girar la
1. Introducción cabeza, perdiendo a la persona.
Por otra parte, en [11] el seguimiento es realizado me-
diante el análisis del histograma de color y apoyado me-
El seguimiento de personas es una habilidad nece-
diante un Laser Range Finder (LRF). El LRF determina
saria para un robot avatar. Un robot de esta ı́ndole debe
la distancia a un objeto mediante el principio de tiem-
cumplir con dos requisitos importantes: la representación
po de vuelo. Con estos dos sensores se realiza una fusión
de una persona en un lugar remoto, y la interacción con
sensorial y finalmente se determina la persona a seguir
humanos de la manera menos invasiva posible. En otros
mediante el método del vecino más cercano.
términos, un robot avatar debe interactuar con las per-
sonas de manera natural con el objetivo de personificar Otro enfoque implementado ha sido mediante algorit-
al teleoperador. mos de detección de piernas e inferencia difusa (lógica
difusa) en [12].
En este documento se detalla el equipo disponible para
Por último, en [13] se utiliza el flujo óptico y la ex-
la habilitación de un humanoide rodante cuyo objetivo es
tracción de caracterı́sticas mediante Lucas-Kanade para
ser teleoperado para interactuar con la gente, a la vez que
el seguimiento de personas.
puede realizar de manera autónoma tareas como esquivar
obstáculos y seguimiento de personas. Para llevar a cabo
estas tareas se equipa al avatar con sensores propiocep-
tivos, un LIDAR, y un sensor de visión 3D, dejando lista 3. Robot Avatar
la plataforma para iniciar el desarrollo de algoritmos.
En la sección 2 se describen diversos enfoques utiliza- Un robot avatar es una plataforma robótica la cual
dos para el seguimiento de personas. En seguida, se define reemplaza a la persona fı́sica desde un lugar remoto con
más propiamente qué es un robot avatar. La arquitectura el propósito de interactuar con el entorno en lugar del
robótica es detallada en la sección 4. Posteriormente se usuario. Actualmente existen varios robots avatar, como
listan las caracterı́sticas a desarrollar o implementar (Sec- el Anybots QB [1], el cual es un robot enteramente tele-
ción 7). Finalmente, en las secciones 8 y ?? se realiza un operado cuya autonomı́a se limita a mantenerse estable
análisis del entorno y de las soluciones propuestas. al avanzar y esquivar obstáculos.

29
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

A través de la saga de Star Wars se observa que el


sistema de comunicación, cuando alguna persona no se
encuentra fı́sicamente en el lugar, es por medio de holo-
gramas que hablan, se mueven, y dan la sensación de que
la persona esta realmente presente (Véase 2). Utilizando
esto como fuente de inspiración, este trabajo se enfoca en
la creación de un robot avatar con propósitos de teleco-
municación con autonomı́a para seguir a la persona con la
cual se conversa de manera automática con fines de evitar
fatiga al usuario en tareas que el usuario realiza el 90 %
de las veces al estar en una conversación.

4. Arquitectura Robótica
La infraestructura actual del humanoide rodante se
muestra en la figura 3.

Figura 1: Anybots QB.

En la ciencia ficción hay medios que permiten la


teleprescencia, tal como los hologramas en Star Wars y
los sustitutos en la pelı́cula Surrogates. A pesar de que
dicha tecnologı́a esta fuera del alcance de los avances ac-
tuales, estas obras brindan ideas para la elaboración del
trabajo actual.

Figura 3: Humanoide Rodante.

4.1. Aspectos Mecánicos


Figura 2: Holograma de Yoda (Telepresencia). El humanoide cuenta con el siguiente equipo:

30
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

Cuatro ruedas de 10cm de radio. 4.3. Equipo de Control


Dos motores de 12 V. Se cuenta con dos drivers BB1245 (Figura 5), uno para
Armazón compuesto de aluminio. cada motor, del fabricante BaneBots.
Bases de delrin y acrı́lico.
En el estado actual de la plataforma, los motores y las
ruedas no se encuentran fijas al armazón. Además, la base
inferior presenta juego mecánico y posee poca resistencia
por lo cual es imperativo cambiarla a un material más
resistente o una placa de acrı́lico más gruesa. Finalmente,
es necesario trabajar el equivalente a cabeza del robot, la
cual se encuentra en mal estado.

4.2. Equipo de Cómputo Figura 5: BaneBots BB1245.


El equipo de cómputo esta conformado por un com-
putador Minibox y un Cerebot32MX4. Las especifica- Las especificaciones de este driver (Véase [3]), son :
ciones del ordenador son: Amperaje pico de 45 A.
Tarjeta Madre Micro ATX.
Voltaje de operación entre 6 y 24 Vdc.
Procesador Intel Atom.
Permite controlabilidad en ambos sentidos del mo-
512 MB de RAM. tor.
40 GB de Disco Duro.
El Cerebot32MX4 (Figura 4), fabricado por la com- 4.4. Instalación Eléctrica
pañı́a Digilent, tiene las siguientes caracterı́sticas:
Se cuenta con una baterı́a PowerSonic capaz de sumin-
Un microcontrolador PIC32MX460F512L de 32 bit istrar 12 Voltios y una corriente máxima de 12 A (Figura
de Microchip. 6, [4]).
Ocho puertos para conexión de servomotores.
Dos puertos I2C.
Dieciséis canales de conversión A/D de 10 bits.
Alimentación mediante puerto USB.

Figura 6: Baterı́a PowerSonic.

4.5. Sensores e Instrumentación


Se requiere de una forma de transmisión de datos ha-
cia un cliente remoto con propósitos de teleoperación o
Figura 4: Cerebot32MX4. simplemente supervisión de tareas. Para esto, se incor-
pora una adaptador USB para red inalámbrica Belkin N
El Cerebot será la unidad de control de los motores, Wireless [5]. Este adaptador soporta los estándares de red
ası́ como de adquisición de datos de diversos sensores pro- IEEE 802.11b, IEEE 802.11g, IEEE 802.11n; tiene un ran-
pioceptivos, como el acelerómetro y el compás magnético. go de hasta 360 metros; soporta los sistemas de cifrado

31
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

WPA, WPA2, y cifrado de 64-bit/128-bit; con una antena Sensorr − V alorref ∗ 3,3 o
Rate =
omnidireccional y tecnologı́a USB 2.0 [6]. 1024 ∗ 0,15 s
El acelerómetro utilizado es un IMU de dos ejes de 1.7 Como sensores activos se cuenta con un LIDAR Hokuyo
gravedades que además proporciona la temperatura del UBG 04LX el cual será utilizado posteriormente para im-
sensor y funciona como giroscopio [7]. Un acelerómetro, plementación de algoritmos de planeación y control. Sus
como su nombre lo indica, sirve para medir la aceleración caracterı́sticas principales son [9]:
de un cuerpo. Esta aceleración se puede utilizar para cal-
cular la velocidad y la posición el vehı́culo mediante la Voltaje de operación de 12 V ± 10 %.
integración de dicho dato. Sin embargo, este sensor es in-
capaz de distinguir entre un vehı́culo en reposo y uno en Rango de detección entre 20 y 5600mm.
movimiento uniforme. Resolución angular 0,36o .
Por ultimo, el compás magnético es un sensor el cual
proporciona el desfasamiento en grados respecto al campo Interface USB2.0.
magnético terrestre. El sensor HMC6352 se comunica por
medio del protocolo de comunicación I2C [8]. Éste sen-
sor es útil para localización y navegación del robot. Los
sensores e instrumentos antes descritos se muestran en la
figura 7.

Figura 7: Sensores e instrumentos (adaptador de red,


acelerómetro, y compás). Figura 8: LIDAR Hokuyo.

Como dispositivo auxiliar para la localización se in-


cluirá un receptor GPS, el cual permitirá conocer la ubi- 4.6. Dispositivos para Comunicación
cación del robot en espacio abierto ya que el GPS pierde de Dos Vı́as
precisión de datos en ambientes techados.
El Firmware del Cerebot cuenta con una función de Como el objetivo principal del robot es la comunicación
lectura del acelerómetro. El acelerómetro es un sensor entre dos personas es necesario que el sistema posea sen-
analógico, por lo cual, es necesario realizar la conversión sores para adquisición de imágenes y sonido y receptores
analógico/digital en el Cerebot. El ADC incluido en el para la recuperación y visualización de datos de audio y
Cerebot posee una resolución de 10 bits. Al termino de vı́deo.
la conversión se interpreta el valor en sus unidades corre- Para la adquisición de imágenes se utilizará un sensor
spondientes, esto es: de visión Unibrain Fire-i BCL 1.2 (Figura 9) y para la
adquisición de audio se instalará un micrófono. Esto ha-
Sensorx ∗ 3,3 m bilitará la comunicación en una sola vı́a. Para un sistema
Accx =
1024 s2 de comunicación completo, o de dos vı́as, es imperativa la
inclusión de dispositivos para la visualización de imágenes
Sensory ∗ 3,3 m y reproducción de audio; es decir, la plataforma debe con-
Accy =
1024 s2 tar con una pantalla o monitor para desplegar imágenes
Sensort ∗3,3 de la persona en el lugar remoto y bocinas para reproducir
− 2,5
T = 1024
+ 27 o C el sonido.
0,0084

32
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

Figura 11: Sensor de visión 3D.

Figura 9: Sensor Fire-i.


5. Software del Avatar
Una distribución Linux será instalada en la Minibox.
El Fire-i funciona mediante el estándar de transmisión Esta distribución Linux puede ser Debian o Gentoo. Gen-
de datos a alta velocidad IEEE 1394, o FireWire. Por esta too, a pesar de ser la mejor opción para a plataforma
razón se incluye la tarjeta de adquisición de vı́deo Ultra robótica en términos de optimización de recursos tiene
FireWire/USB2.0 PCI Card (Figura 10) para utilizarla problemas con el metasistema operativo ROS, el cual
como interfaz entre sensor y ordenador. será utilizado en conjunto con OpenCV para el desarrollo
e implementación de algoritmos para máxima eficiencia
con el objetivo de reutilización de código. Por esta razón,
y hasta que sea posible la instalación completa de ROS
sobre Gentoo, la distro a ser instalada es Debian.
Player es un servidor de red para el control de robots,
ası́ como una interfaz de dispositivos. Está diseñado para
ser independiente del lenguaje y de la plataforma. Este
será utilizado para las primeras pruebas de teleoperación
de avatar.
OpenCV es una librerı́a de funciones para el proce-
samiento de imágenes en tiempo real la cual incluye fun-
Figura 10: Tarjeta de FireWire/USB2.0. ciones para segmentación, seguimiento, extracción de car-
acterı́sticas, visión 3D, entre otras como transformadas y
descriptores geométricos. Esta librerı́a será utilizada co-
4.7. Sensor de Visión 3D
mo base de los algoritmos de visión 3D.
El sensor principal de la plataforma para el desarrol- ROS, el metasistema operativo para robots, provee li-
lo e implementación de algoritmos de segmentación y brerı́as y herramientas para desarrolladores de software
seguimiento de personas es un sensor de visión estéreo o de plataformas robóticas. ROS incluye abstracción de
visión 3D. El costo de estos sensores es bastante elevado, hardware, controladores de dispositivos, librerı́as, visual-
por lo cual se optó por la fabricación de uno utilizando dos izadores, y manejo de paquetes [15].
sensores Fire-i (Figura 9) idénticos montados sobre una En caso necesario, más librerı́as para control de diver-
placa de aluminio a una distancia aproximada de 10cm y sos sensores serán incluidas.
nivelados perfectamente a la misma altura. Como parte del software de la plataforma se contem-
Mediante software se desarrollarán algoritmos para la pla el Firmware del Cerebot, el cual es desarrollado en
fusión de las imágenes provenientes de ambos sensores. MPLAB. El Firmware del Cerebot debe ser optimizado
Para la reducción de costos y máximo aprovechamiento para compartir tareas con el computador, con el fin de dis-
de los sensores, una de las cámaras será utilizada para tribuir la carga computacional. El Firmware, en su estado
dos tareas: 1) conformar la imagen 3D al ser unida con actual, es el encargado del control de motores y lectura
la imagen proveniente de la otra cámara y 2) funcionar de sensores. Sin embargo, las ecuaciones de cinemática
como webcam enviando las imágenes a la persona con la pueden implementarse en el Firmware para ahorrar tiem-
cual nos comunicamos. po de procesamiento en el ordenador.

33
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

Otro punto a considerar es la implementación de la cual se va a seguir pero, dado el número potencial de
comunicación bidireccional. Es decir, definir si se uti- personas con las cuales se conversa es una solución
lizará un cliente de mensajerı́a instantánea para la trans- no viable.
misión y recepción de audio y vı́deo con el procesamiento 2. Inmune a problemas de oclusión. En entornos ur-
de visión en otro hilo. banos es común el tránsito de personas u objetos
entre la persona a seguir y el robot seguidor. Un
buen sistema de seguimiento involucra que, aunque
6. Cinemática Inversa haya problemas de oclusión, el robot no pierda a la
persona a seguir.
El modelo matemático que estima la posición del robot
y determina la posición siguiente es el modelo cinemático. 3. Distinguir al sujeto de interés entre una multitud.
Este puede ser directo o inverso. En este caso, se maneja En la rutina normal, las personas al moverse a tráves
un modelo cinemático inverso para dos motores, o difer- de su entorno se encuentran con otras personas. El
encial. Esta definido como: robot debe permanecer siguiendo a la persona de in-
terés, a pesar de la presencia de otras personas, e
2 W 2 + L2 incluso objetos, en la escena.
ψl = v− ω
r rW 4. Inmune a cambios de iluminación. En transiciones
2 W 2 + L2 de interior a exterior o viceversa se produce un cam-
ψr = v + ω
r rW bio de iluminación considerable, el cual puede provo-
donde v es la velocidad lineal y ω es la velocidad angu- car la pérdida de la persona a seguir.
lar a las cuales el robot se moverá. Estas velocidades serán 5. Eficiente. El tiempo de procesamiento y toma de de-
traducidas internamente por el Cerebot a porcentajes de cisiones debe ser corto.
ancho de pulso.
6. Inmune al movimiento propio del robot. El sensor
Y para obtener el desplazamiento en x y y, ası́ como el
de visión es enteramente dependiente del movimien-
cambio en ángulo, tenemos que:
to del robot. Al desplazarse o girar, aunque sea un
poco, el sensor de visión adquiere lecturas totalmente
θk = θk−1 + ωdt
diferentes a la escena anterior.
xk = xk−1 + vCosθk dt 7. Inmune a cambios de fondo. Dado que el avatar nave-
yk = ysk−1 + vSinθk dt gará por ambientes no estructurados, es necesario
que pueda adecuarse a la mayor cantidad de condi-
donde cada nuevo instante k se basa en una nueva lec-
ciones posibles.
tura en conjunto con el historial de movimiento, o datos
anteriores. En otras palabras, se requiere de un sistema de visión
robusto para el seguimiento de personas.

7. Caracterı́sticas Deseadas
8. Entorno
El sistema a ser desarrollado debe cumplir con las sigu-
ientes caracterı́sticas: Para un robot avatar como el que se plantea en este
documento, el entorno es totalmente no estructurado. El
1. Encontrar a la persona correcta a seguir. Para poder objetivo es interactuar con personas de la manera mas
realizar un seguimiento de personas el primer pa- natural posible y, para esto, no es viable pedir a las per-
so es saber a quien se debe seguir. En [10] se sigue sonas establecer cierta distancia entre ellas y el robot,
a la primera persona que se ve. Sin embargo, esto o avanzar a determinada velocidad, o moverse sin hacer
no es práctico para un sistema de telecomunicación. movimientos bruscos.
Aunque la implementación es aún desconocida, es
posible el seguimiento de la primera persona que se
ve siempre y cuando se mande un bit de inicio de 9. Soluciones Propuestas
seguimiento o alguna otra implementación mediante
software. Otra solución menos práctica y más cos- Las caracterı́sticas mostradas en la sección anterior de-
tosa es un transmisor colocado en la persona en la limitan el área de trabajo y establecen parámetros para

34
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

iniciar con propuestas para la implementación de algorit- [2] Cerebot32MX4,


mos. En entornos estáticos, se segmentan los objetos en http://www.digilentinc.com/Products/Detail.cfm?
movimiento mediante una AND entre la imagen estática NavPath=2,719,755&Prod=CEREBOT32MX4
y la nueva imagen adquirida. Aquellos que presenten una [3] BaneBots BB1245
diferencia significativa, pertenecen al plano de inters, u http://banebots.com/pc/ELECTRONICS/
objetos en movimiento. Sin embargo, para una cmara en BB-1245/
movimiento, donde cada uno de los pı́xeles cambia su val-
or al cambiar la cmara de posición, se deben utilizar otras [4] PowerSonic PS-12100 F1
herramientas. El flujo óptico proporciona información so- http://www.power-sonic.com/images/powersonic/
bre el desplazamiento de los pı́xeles por medio de vectores sla batteries/ps psg series/12volt/
de movimiento. Una vez se sabe la nueva posición de de- PS-12100 11 Feb 21.pdf
terminado pı́xel, es posible determinar mediante métodos [5] Belkin N Wireless USB Adapter F5D8053
probabilı́sticos si el pı́xel en la nueva posición conserva su http://www.belkin.com/IWCatProductPage
valor o este fue cambiado. .process?Product Id=372137
La extracción de caracterı́sticas, como la detección de
[6] Belkin N Wireless Specifications
esquinas con Harris, puede ser útil para la localización
http://benchmarkreviews.com/index.php?option=
del robot en un plano global, ası́ como para la distinción
com content&task=view&id=223&Itemid=70&
entre fondo y objetos de interés.
limit=1&limitstart=1
Por medio de la visión 3D se puede inferir profundidad
de un objeto para el seguimiento a una distancia prede- [7] IMU Dual Axis Accelerometer
terminada. Por ultimo, se propone un esquema de fusión http://www.robotshop.com/ca/sfe-dual-axis
sensorial con el sistema de visión, el LIDAR Hokuyo, y -accelerometer-triple-axis-combo.html
el GPS. Adicionalmente, se puede añadir el sensor lógico [8] Honeywell HMC6352 Compass Module
del modelo cinemático, el cual también provee informa- http://www.parallax.com/Portals/0/Downloads/
ción sobre el cambio de estado. docs/prod/sens/29323
HoneywellHMC6352Compass-v1.0.pdf
[9] LIDAR Hokuyo UBG 04LX
10. Conclusiones http://www.hokuyo-aut.jp/02sensor/07scanner/
ubg 04lx f01.html
Por medio del análisis de diversos trabajos centrados
[10] Tim Braun, Kristof Szentpetery, y Karsten Berns.
en un tópico similar se pudieron observar diversos en-
Detecting and Following Humans with a Mobile
foques los cuales pueden ser mejorados o usados como
Robot, University Kaiserslautern, Robotic Systems
inspiración para el desarrollo de nuevos algoritmos de
Group, Kaiserslautern, 67653, Alemania.
seguimiento con base a sistemas de visión 3D. También
se observó que la fusión sensorial sirve para generar re- [11] Hiroshi Takemura, Zentaro Nemoto, Keita Ito y Hi-
dundancia y mayor confiabilidad para el seguimiento de roshi Mizoguchi. Development of Vision Based Per-
una persona. Sin embargo, aun no se establece de manera son Following Module for Mobile Robots in RT-
clara la implementación, aunque gran parte de la arqui- Middlewar e, Tokyo University of Science Japan.
tectura ya está definida. Ya que se cuente con esto total- [12] Samir Shaker, Jean J. Saade y Daniel Asmar. Fuzzy
mente definido y funcional, se procederá al desarrollo de Inference-Based Person-Following Robot, 2008.
algoritmos.
[13] Zhichao Chen y Stanley T. Birchfield, Person Fol-
lowing with a Mobile Robot Using Binocular Feature-
Based Tracking, Clemson University, Octubre 2007.
Referencias
[14] OpenCV
[1] Anybots QB Telepresence Robot http://opencv.willowgarage.com/wiki/
http://spectrum.ieee.org/automaton/robotics/ [15] ROS
industrial-robots/051810-anybots-qb-new http://www.ros.org/wiki/
-telepresence-robot

35
6to Simposio en robots autónomos, sensado y percepción, 27/M ay/11 Carlos Alberto Ramos López

Carlos Alberto Ramos


López: Estudiante de la Uni-
versidad Autónoma de Ciudad
Juárez, con interés en la pro-
gramación en C/C++ para el
desarrollo de algoritmos para
aplicaciones de servicio.

36

Potrebbero piacerti anche