Málaga, España
El SLAM visual se basa comúnmente en la optimización de un grafo de keyframes, imágenes clave en una secuencia de vídeo, para la construcción de mapas 3D y la localización de la cámara. La creación de este grafo requiere de un proceso front-end eficiente que seleccione keyframes con suficiente solape entre observaciones pero con bajo coste computacional. Este trabajo propone utilizar información de barridos láser 2D, comunes en robots móviles, para determinar el solape entre observaciones de una cámara, incorporando información sobre la estructura de la escena y seleccionando nodos distanciados entre sí cuando el solape cae bajo cierto umbral. Esto evita el costoso proceso de extracción y emparejamiento de características en las imágenes para determinar la covisibilidad entre observaciones. Las pruebas realizadas demuestran que podemos mantener el nivel de solape alrededor de un determinado umbral durante la navegación, insertando keyframes a diferentes frecuencias según la estructura de la escena con un coste computacional significativamente menor que con el uso exclusivo de imágenes.
Visual SLAM is commonly based on optimizing a graph of keyframes, key images in a video sequence, for 3D map construction and camera localization. The creation of such a graph requires an efficient front-end process that selects keyframes with sufficient overlap between observations but with low computational cost. This work proposes to use information from 2D laser scans, common in mobile robots, to determine the overlap between observations of a camera, incorporating information about the scene structure and selecting spaced keyframes when the overlap falls below a certain threshold. This avoids the costly process of extracting and matching features in images to determine covisibility between observations. Our tests show that we can maintain the level of overlap around a certain threshold during navigation by inserting keyframes at different frequencies depending on the scene structure with significantly lower computational cost than when using images alone.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados