La aparición de las cámaras RGB-D como sensores robóticos de bajo coste ha supuesto la inclusión habitual de varios de estos dispositivos en una creciente cantidad de vehículos y robots. En estos casos, la calibración precisa de las transformaciones espaciales existentes entre las cámaras del mismo robot es de capital importancia a la hora de obtener medidas fiables del entorno. Este artículo evalúa el método de calibración con fórmula cerrada descrito en [7] y lo extiende con una propuesta alternativa basada en un método iterativo y una extensión robusta de este último en dos escenarios: i) un entorno simulado con cambios en el nivel de ruido de las observaciones, en el número de observaciones obtenidas, en la proporción de outliers y en las posiciones relativas de las cámaras, y ii) una configuración particular de 3 cámaras RGBD sobre un robot real. Los resultados de la evaluación muestran una mayor precisión para nuestra propuesta iterativa robusta en todos los escenarios analizados. El código fuente de la implementación de estos métodos en C++ se proporciona para su uso público.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados