Ayuda
Ir al contenido

Dialnet


Navegación de robot móvil usando Kinect, OpenCV y Arduino

  • Autores: César Augusto Díaz Celis, César Augusto Romero Molano
  • Localización: Prospectiva, ISSN-e 2216-1368, ISSN 1692-8261, Vol. 10, Nº. 1 (enero - junio), 2012, págs. 71-78
  • Idioma: español
  • Títulos paralelos:
    • Mobile robot navigation using Kinect, OpenCV and Arduino
  • Enlaces
  • Resumen
    • español

      Este artículo presenta los resultados de investigación de la visión artificial que sirve de apoyo a la navegación por medio de imágenes de profundidad y el reconocimiento de objetos por sus canales primarios. El dispositivo utilizado para la captura de la imagen RGB y la imagen de profundidad es el sensor Kinect de Microsoft, este consta de una cámara RGB y un emisor de infrarrojos que proyecta un patrón irregular de haces con una intensidad variable. El sensor de profundidad reconstruye una imagen a partir de la distorsión del patrón, el siguiente paso es buscar todos los puntos rojos de la escena, contarlos, calcular el centroide, diámetro, posición y distancia al Kinect. Por último procesar estos resultados, tomar la decisión de movimiento para ser enviada al Arduino, el cual controla los motores. Los resultados obtenidos en la investigación indican que las imágenes de profundidad capturadas por el Kinect requieren de escenarios con iluminación controlada; este aspecto es compensado con la creación del algoritmo de navegación con procesamiento digital de imágenes.

    • English

      This paper presents the research results of the artificial vision that support navigation through depth images and recognition of objects by their primary channels. The device used for RGB and depth image capture is Microsoft´s kinect sensor, which has a RGB camera and an infrared transmitter that projects an irregular beam pattern with a variable intensity. This depth sensor reconstructs an image from the distortion pattern. The next step is to find all the red points of the scene, count them, calculate the center point, diameter, position and its distance from the kinect. Finally, process these results, take the movement decision to be sent to the Arduino, which controls the motors. The results obtained in the research indicate that the depth images captured by the kinect require controlled illumination scenarios; this aspect is compensated with the creation of the navigation algorithm with digital image processing. The results indicate that research showed the depth images captured by the Kinect require controlled lighting scenarios, for this reason we created the navigation algorithm with digital image processing which serves to support the navigation depth images.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno