Optimización de pasillos largos para cámaras lidar
El posicionamiento es una cuestión básica en la navegación de un robot, permitiendo al robot realizar tareas de forma autónoma. Sin embargo, en entornos con escaneo láser ambiguo, como pasillos largos, es posible que los algoritmos SLAM (localización y mapeo simultáneos) tradicionales que utilizan escáneres láser no puedan estimar de manera sólida las posturas de los robots. Para resolver este problema, proponemos un nuevo método de localización basado en un método híbrido, que combina un escáner láser 2D y una cámara monocular bajo el marco SLAM basado en estructura gráfica. El método híbrido se utiliza para obtener las coordenadas tridimensionales de los puntos característicos de la imagen, suponiendo que la pared es perpendicular al suelo y verticalmente plana. Sin embargo, esta suposición puede mitigarse porque el proceso posterior de coincidencia de características rechaza los valores atípicos en paredes inclinadas o irregulares. Estimación de la pose final del robot mediante optimización del gráfico de restricciones generada por un enfoque híbrido. Para verificar la eficacia de este método, se llevó a cabo un experimento real en un ambiente interior de pasillo largo. Los resultados experimentales se comparan con el método tradicional de GMapping. Los resultados muestran que este método puede posicionar el robot en tiempo real en un entorno con escaneo láser borroso y su rendimiento es mejor que los métodos tradicionales.
Este artículo propone un método SLAM basado en estructura gráfica, utilizando un escáner láser 2D y una cámara monocular para resolver los problemas anteriores. Los datos de las características de la imagen se obtienen de la cámara y la información de profundidad se obtiene del escáner láser. La estructura gráfica de los datos del sensor fusionado se utiliza para compensar las deficiencias de cada sensor. Este enfoque híbrido, que combina un escáner láser y una cámara, nos permite estimar la postura del robot en el entorno borroso del escaneo láser, lo cual es difícil de estimar usando solo un escáner láser. Un entorno de este tipo es un pasillo largo o un espacio muy grande, y el escáner láser solo puede detectar un lado del área circundante porque el alcance desde el robot hasta la pared es mayor que el rango de detección máximo del escáner láser. Un enfoque híbrido puede superar las deficiencias de cada sensor. Al utilizar estos métodos, la postura del robot se puede estimar con precisión en entornos borrosos mediante escaneo láser.
El resto de este artículo está organizado de la siguiente manera. La Sección 2 describe un enfoque general para que los robots de interior minimicen los errores de postura del robot mediante el uso de SLAM basado en estructuras gráficas de múltiples sensores. Para verificar la superioridad del método propuesto, describimos el entorno experimental y todo el sistema en la Sección III, así como los resultados experimentales obtenidos utilizando nuestro método. La sección 4 es la conclusión y el trabajo futuro.
Esta sección detalla nuestro enfoque. Primero, se presentan brevemente GMapping [4], filtros de partículas SLAM y Rao-Blackwellized basados en cuadrículas y fórmulas SLAM basadas en gráficos. Luego detallamos cómo fusionar datos de características extraídos de una cámara monocular y datos de profundidad obtenidos de un escáner láser para localizar el robot. Finalmente, describimos métodos para generar y optimizar mapas de pose.
GMapping es un SLAM basado en grid que utiliza filtros de partículas Rao-Blackwellized. Al utilizar el remuestreo adaptativo en GMapping, se resuelve el problema de larga data del SLAM basado en filtros de partículas. GMapping reduce la incertidumbre en la pose del robot mediante el empleo de un método llamado distribución de propuesta modificada. Suponiendo que el escaneo láser es más preciso que el alcance, este método produce una distribución sugerida basada en las mediciones del sensor más cercano. Este es un método probabilístico para estimar la pose del robot, y la pose del robot en un plano 2D se puede estimar utilizando datos de profundidad de un escáner láser. Cuando se pueden hacer coincidir escaneos láser consecutivos sin ambigüedad, se puede utilizar el algoritmo GMapping. Sin embargo, si el algoritmo GMapping se utiliza en un entorno con escaneo láser borroso, pueden ocurrir errores de postura del robot. Por lo tanto, es necesario manejar esta situación, y en la siguiente sección se describe SLAM basado en gráficos para la fusión de múltiples sensores.
En esta subsección, se describe el método utilizado para fusionar los datos de características de la cámara y la información de profundidad del escáner láser. Prediga posturas de robots en 3D mediante un enfoque híbrido y utilice esta información como restricciones para SLAM basado en gráficos. El algoritmo y el concepto generales se muestran en la Figura 1 y la Figura 2 respectivamente. Antes de implementar un enfoque híbrido de escáner láser y cámara monocular, se debe realizar una calibración interna para determinar los parámetros intrínsecos de la cámara. También es necesario conocer la posición relativa entre la cámara y el escáner láser para poder fusionar los datos de ellos.
Por lo tanto, la información de actitud relativa entre los dos sensores se obtiene mediante calibración externa.
Después de instalar varios sensores en el robot, utilice los sensores correspondientes para estimar la postura del robot. Luego, el algoritmo híbrido fusiona los resultados respectivos, como se muestra en la Figura 4. Los valores de covarianza y las medidas de cada sensor se utilizan para generar restricciones en la estructura del gráfico. La información de restricción generada se utiliza para organizar la estructura gráfica y la postura final corregida del robot se obtiene mediante optimización gráfica. El telémetro genera información de alcance, que se utiliza para generar restricciones de actitud. Haga un mapa de cuadrícula 2D utilizando datos de profundidad de un escáner láser 2D. Luego, GMapping se utiliza para generar restricciones de pose del robot 2D a partir del mapa de malla 2D y la coincidencia ICP [4]. Después de extraer puntos característicos a través del algoritmo SURF (Speed-up Robust Features) [29] de imágenes de cámara, las coordenadas 3D de cada punto característico se obtienen agregando información de profundidad de un escáner láser 2D. Luego, las restricciones de pose del robot tridimensional se generan en función de las coordenadas tridimensionales de los puntos característicos. En la sección anterior, se describió en detalle un enfoque híbrido para obtener la pose del robot utilizando una cámara monocular y un escáner láser.