Ayuda
Ir al contenido

Dialnet


Resumen de Posicionamiento de ayuda visual utilizando compresión de nube de puntos y cámaras RGB-D para manipuladores robóticos

Estefan Iván Cisternas Velásquez, Julio Andrés del Río Caldumbide, Alvaro Javier Prado Romo, Oswaldo Aníbal Menéndez Granizo

  • español

    Durante la última década, se ha logrado la optimización de un conjunto masivo de tareas industriales aprovechando la precisión de los manipuladores robóticos. Si bien la nueva era de los manipuladores robóticos presenta herramientas de alta tecnología para solucionar problemas de posicionamiento y seguimiento, la actualización de las unidades más antiguas es un desafío importante debido a la incompatibilidad de hardware, mecanismos obsoletos y restricciones de operación. Este trabajo introduce un nuevo sistema de ayuda visual para determinar la postura y orientación, es decir, pose de un manipulador robótico utilizando un arreglo de dos cámaras estéreo. El sistema de posicionamiento visual calcula la posición del efector final a partir de la nube de puntos completa adquirida por el arreglo de cámaras y el modelo inverso del robot. Las nubes de puntos son fusionadas utilizando el algoritmo de Iterative Closest Point. Un detector de color amarillo detecta los puntos relacionados con el efector final. Finalmente, la posición del efector final se calcula con un estimador Media. Los resultados experimentales muestran que el dispositivo propuesto puede estimar la posición relativa del efector final respecto de la base del brazo robótico con errores aproximados de posicionamiento longitudinal, lateral y vertical de 19.6%, 15,7% y 9,2%, respectivamente.

  • English

    Over the last decade, optimization of a massive set of industrial tasks has been achieved by taking advantage of repeatability and precision of robotic arms. While the new era of robotic arms introduces high-tech tools to fixpositioning and tracking issues, upgrading older units is a significant challenge due to hardware incompatibilities, outdated mechanisms, and operation restrictions. This work introduces a new visual system to determine the position of a robotic arm using a two-stereo-cameras array. The visual-positioning system estimates the position of the end-effector using an inverse model of the robot and the fullpoint cloud acquired with the stereo cameras. An Iterative Point Cloud algorithm merges the partial point clouds of each depth sensor, and with a yellow color detector, the algorithm extracts the Region of Interest (ROI). Experimental results show that the proposed device can estimate the relative position of the end-effector with respect to the robotic arm base with errors in the longitudinal, lateral, and verticalpositions of around 19.6%, 15.7% and 9.2%, respectively.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus