Ayuda
Ir al contenido

Dialnet


Manipulación visual-táctil para la recogida de residuos domésticos en exteriores

    1. [1] Universitat d'Alacant

      Universitat d'Alacant

      Alicante, España

  • Localización: Revista iberoamericana de automática e informática industrial ( RIAI ), ISSN-e 1697-7920, Vol. 20, Nº. 2, 2023, págs. 163-174
  • Idioma: español
  • Títulos paralelos:
    • Visual-tactile manipulation to collect household waste in outdoor
  • Enlaces
  • Resumen
    • español

      Este artículo presenta un sistema de percepcion orientado a la manipulación robótica, capaz de asistir en tareas de navegación, clasificacion y recogida de residuos domésticos en exterior. El sistema está compuesto de sensores táctiles ópticos, cámaras RGBD y un LiDAR. Estos se integran en una plataforma móvil que transporta un robot manipulador con pinza. El sistema consta de tres modulos software, dos visuales y uno táctil. Los módulos visuales implementan arquitecturas CNNs para la localización y reconocimiento de residuos sólidos, además de estimar puntos de agarre. El módulo táctil, también basado en CNNs y procesamiento de imagen, regula la apertura de la pinza para controlar el agarre a partir de informacion de contacto. Nuestra propuesta tiene errores de localizacion entorno al 6 %, una precisión de reconocimiento del 98 %, y garantiza estabilidad de agarre el 91 % de las veces. Los tres modulos trabajan en tiempos inferiores a los 750 ms.

    • English

      This work presents a perception system applied to robotic manipulation, that is able to assist in navegation, household waste classification and collection in outdoor environments. This system is made up of optical tactile sensors, RGBD cameras and a LiDAR. These sensors are integrated on a mobile platform with a robot manipulator and a robotic gripper. Our system is divided in three software modules, two of them are vision-based and the last one is tactile-based. The vision-based modules use CNNs to localize and recognize solid household waste, together with the grasping points estimation. The tactile-based module, which also uses CNNs and image processing, adjusts the gripper opening to control the grasping from touch data. Our proposal achieves localization errors around 6 %, a recognition accuracy of 98% and ensures the grasping stability the 91% of the attempts. The sum of runtimes of the three modules is less than 750 ms.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno