Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
TEMA:
“SISTEMA DE NAVEGACIÓN AUTÓNOMO BASADO EN VISIÓN
PARA PISTAS DE CARRERAS DE DRONES CON LANDMARKS
DE SUPERFICIE”
REALIZADO POR:
SR. SANTIAGO ANDRÉS GRIJALVA CAISACHANA
DIRECTOR:
DR. WILBERT G. AGUILAR
No aplica
Página 2 de 15
3. DEFINICIÓN DEL PROYECTO
3.1 ANTECEDENTES
Los vehículos aéreos no tripulados, por sus siglas en inglés (Unmanned Aerial Vehicle),
han tenido gran acogida en los últimos años en diferentes disciplinas, mapeo 3D,
levantamientos topográficos, agricultura de precisión, sistemas de vigilancia, rescate,
sistemas de navegación autónomos, etc. [1]- [2]- [3].
Existen MAVs, (Micro Aerial Vehicles), que por sus dimensiones y limitaciones físicas
no pueden llevar cargas superiores a la de su propia estructura, por lo que el uso de
sensores adicionales a bordo no es recomendable. En este caso los sistemas de navegación
autónoma están basados en imágenes obtenidas por una cámara monocular. A través de
las imágenes se hace una estimación de la pose y movimiento del MAV (egomotion
estimation), y se realiza un control servo visual para evadir posibles obstáculos.
Los errores de matching son un problema a afrontar en los detectores de puntos de interés,
esto lleva a una errónea detección del obstáculo. Es necesario rechazar valores atípicos
Página 3 de 15
en el modelo, Aguilar et al. [10] usa una combinación de transformaciones geométricas y
rechazo de falsos positivos (outliers rejection) basado en el Consenso de Muestreo
Aleatorio por sus siglas en inglés RANSAC (RANdom SAmple Consensus), que es un
método iterativo para calcular los parámetros de un modelo matemático de un conjunto
de datos observados que contiene valores atípicos (outliers), para diseñar un estabilizador
de video en tiempo real para MAVs. Esto puede ser extrapolado a una robusta detección
de obstáculos sin errores de matching.
Otro de los problemas que se ha afrontado es la estimación del estado del MAV en
ambientes sin señal GPS. Varios estudios [11]- [12]- [13], utilizan un filtro de Kalman
para fusionar los datos de la IMU y las imágenes monoculares de la cámara que tienen
incorporada, de esta manera obtienen una estimación óptima del estado actual del MAV.
El Bebop 2.0 es un MAV comercial de la empresa Parrot que tiene una cámara monocular
de 14 megapíxeles con una velocidad de obturación de 30 cuadros por segundo (FPS).
Adicionalmente esta cámara es tipo ojo de pescado (fisheye), lo que significa que tiene
un ángulo de visión de 180° permitiendo obtener desde imágenes frontales hasta imágenes
de la superficie sobre la que se encuentra sobrevolando. Además, cuenta con un altímetro,
que proporciona información importante sobre la distancia que existe entre el MAV y la
superficie terrestre.
Página 4 de 15
3.2 JUSTIFICACIÓN E IMPORTANCIA
Cada uno de estos sistemas debe poseer un grado de autonomía. Los sistemas de
navegación autónomos basados en visión son ampliamente usados en la literatura, esto se
debe a que en ambientes negados de señal GPS muchos de los sistemas convencionales
son susceptibles a fallo. En este proyecto de investigación se plantea el desarrollo del
mismo para pistas de carreras de drones. Estos circuitos a pesar de ser ambientes
controlados, son diseñados para probar la destreza y robustez del controlador que se ha
diseñado. Por lo que, es importante desarrollar un sistema de navegación autónomo, en
primera instancia, en ambientes controlados, para posteriormente extrapolarlo a las
aplicaciones mencionadas en la literatura.
Sección recta
Sección curva
Sección giro en curva
Sección dinámica
Página 5 de 15
En estas secciones se presentan diferentes tipos de obstáculos, en la Figura 2 se muestran
los obstáculos que se definen en la IROS 2018.
Página 6 de 15
Con el desarrollo de este proyecto de investigación se ponen en práctica los conceptos de
la Ingeniería en Electrónica, Automatización y Control. Principalmente se utilizan
conceptos de Sistemas de Control, Control Digital, Robótica Industrial y Control
Inteligente.
El sistema estará constituido por una estación aérea Bebop 2.0 y una estación terrestre
Intel Core i7-6800HQ @ 2.60 GHz con 16 GB DDR4 de memoria RAM y una tarjeta
gráfica dedicada NVIDIA GTX 1060 de 3 GB de VRAM encargada de procesar las
imágenes monoculares y datos inerciales, seguido de esto, enviar las señales de control al
MAV.
Página 7 de 15
Figura 4. Diagrama esquemático del sistema
1. Comunicación inalámbrica con la estación terrestre: El Parrot Bebop 2.0
crea una red con SSID Bebop- XXXX, a la cual se conecta la estación terrestre.
2. Extracción de datos de la cámara: ROS levanta un nodelet a través del cual
pública la captura del video en el tópico image_raw como un mensaje de ROS
de tipo sensor_msgs/Image. Para seguir la trayectoria y evadir obstáculos al
mismo tiempo se observa hacia la superficie y hacia al frente. El Bebop 2.0 es
capaz de observar con un ángulo de visión de 180°, por esto se dedica 15
cuadros a las imágenes frontales y 15 cuadros a las imágenes terrestre.
3. Extracción de puntos de interés: ROS levanta un nodo de comunicación con
OpenCV. Con estas librerías se extraen puntos interés tanto para las imágenes
frontales como terrestres, determinando así, obstáculos y la ruta marcada.
4. Egomotion estimation: Se estima el estado actual del MAV, fusionando los
datos de la IMU y las imágenes monoculares.
5. Planificación de ruta: En función del estado del MAV y los puntos de interés,
se planifica la ruta tomando en cuenta dos consideraciones:
a. Seguimiento de ruta: Realizar el seguimiento de la ruta delimitada
con landmarks.
b. Detección de obstáculos: Detectar obstáculos y estimar la distancia a
la que se encuentra el MAV de estos.
6. Control servo visual: Ya planificada la ruta a través del obstáculo, se envían
las señales de control hacia el MAV para navegar a través de este, siguiendo la
ruta delimitada por landmarks.
3.4 OBJETIVOS
3.4.1 GENERAL
Diseñar un sistema de navegación autónomo basado en visión para pistas de
carreras de drones delimitadas con landmarks de superficie.
Página 8 de 15
3.4.2 ESPECÍFICOS
Realizar el estudio del estado del arte sobre los tipos de algoritmos
de evasión de obstáculos, seguimiento de trayectoria y planificación
de rutas.
Comprende la dinámica y parámetros físicos del MAV Parrot Bebop
2.0
Desarrollar el algoritmo de detección de obstáculos basado en
puntos de interés.
Desarrollar el algoritmo de seguimiento de trayectorias a través de
landmarks superficiales.
Diseñar el controlador y planificador de rutas a través de los
obstáculos.
Realizar pruebas experimentales en cada uno de los ambientes de
prueba, de forma individual y de forma colectiva.
Evaluar el desempeño del sistema frente a un piloto experto en
circuitos de destreza de drones.
3.5 CONTENIDOS
1. CAPITULO I. INTRODUCCIÓN
1.1. Planteamiento del problema
1.2. Antecedentes
1.3. Justificación e Importancia
1.4. Alcance del Proyecto
1.5. Objetivos
1.5.1. Objetivo General
1.5.2. Objetivos Específicos
Página 9 de 15
3.2.1. Algoritmos de detección y descripción de puntos de
interés
3.3. Algoritmos de planificación de rutas
3.3.1. Obstáculos fijos
3.3.2. Obstáculos móviles
3.4. Plataformas de comunicación con el MAV Parrot Bebop 2
3.4.1. Robot Operating System (ROS)
3.4.2. Driver bebop_autonomy
3.4.2.1. Mensajes bebop_autonomy
3.4.2.2. Tópicos bebop_autonomy
3.5. Parámetros físicos del sistema
3.5.1. Parámetros físicos de la pista
3.5.2. Parámetros físicos de los obstáculos
7. REFERENCIAS BIBLIOGRÁFICAS
8. ANEXOS
Página 10 de 15
3.6 ACTIVIDADES PARA EL DESARROLLO DEL PROYECTO
Página 11 de 15
conjunto. A partir del análisis de los resultados obtenidos se
continuará con la siguiente actividad.
Conclusiones y recomendaciones
En la etapa final se redactarán las conclusiones y recomendaciones que
se lograron en el desarrollo del proyecto, y, además, se presentan las
futuras investigaciones.
Página 12 de 15
3.6.2 CRONOGRAMA POR SEMANAS EN HOJAS DESPLEGABLES
(EN MICROSOFT PROJECT)
Página 13 de 15
4. REFERENCIAS
[1] F. Nex y R. Fabio, «UAV for 3D mapping applications: a review,» Applied Geomatics, vol.
6, nº 1, pp. 1-15, 2013.
[2] P. Liu y A. Chen Y., «A review of rotorcraft Unmanned Aerial Vehicle (UAV) developments
and applications in Civil Engineering,» Smart Structures and Systems, vol. 13, nº 6, pp.
1065-10694, 2014.
[3] C. Zhang y J. M. Kovacs, «The application of small unmanned aerial systems for precision
agriculture: a review,» PrecisionAgriculture, vol. 13, nº 6, pp. 693-712, 2012.
[5] J. Yi y Z. Junjie, «IMU-based localization and slip estimation for skid-steered mobile
robots,» de 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems,
San Diego, 2007.
[6] N. Gageik y P. Benz, «Obstacle Detection and Collision Avoidance for a UAV With
Complementary Low-Cost Sensors,» Digital Object Finder, vol. 3, pp. 599-609, 2015.
[8] A. S. Huang y A. Bachrach, «Visual Odometry and Mapping for Autonomous Flight Using
an RGB-D Camera,» Springer Tracts in Advanced Robotics, vol. 100, pp. 235-252, 2016.
[9] T. Mori y S. Scherer, «First Results in Detection and Avoiding Front Obstacles from
Monocular Camera for Micro Unmanned Aerial Vehicles,» de IEEE International
Conference on Robotics and Automation (ICRA), Karlsruhe, 2013.
[11] I. Sa, S. Hrabar y P. Corke, «Outdoor Flight Testing of a Pole Inspection UAV Incorporating
High-speed Vision,» Field and Service Robotics. Springer Tracts in Advanced Robotics, vol.
105, 2015.
[13] V. Lippiello y R. Mebarki, «Closed-Form Solution for Absolute Scale Velocity Estimation
Using Visual and Inertial Data with a Slideing Least-Squares Estimation,» Mediterranean
Conference on Control & Automation (MED), vol. 21, pp. 1261-1266, 2013.
Página 14 de 15
5. FIRMAS DE RESPONSABILIDAD
Página 15 de 15