Badajoz, España
Desde sus inicios, el ámbito de la visión por computador se ha esforzado por recabar de imágenes 2D y espacios 3D la información y el conocimiento que el ser humano puede extraer fácilmente con un solo vistazo. Los métodos más efectivos han apostado por llevar el concepto de inteligencia artificial un paso más allá, optando por unir la extracción de información con el uso de redes neuronales, dando como resultado lo que hoy llamamos aprendizaje profundo, una de las ramas de la computación que más desafíos ofrece a día de hoy. Este artículo no busca sino realizar una recopilación de aquellos métodos que siguen siendo la base, como PointNet, de muchos estudios recientes, así como aquellos que bien podrían suponer nuevas líneas de investigación en el campo de la segmentación semántica de escenas y modelos tridimensionales, dada la importancia y el reto derivado de trabajar con nubes de puntos. Con este objetivo, se realiza una comparativa entre los métodos para quienes deseen introducirse en este campo, considerando aspectos que se creen convenientes para trabajar con nubes de puntos reales.
During the recent years, computer vision has put efforts into adding information to 2D images and 3D scenes the same way humans extract knowledge just by looking at them. Regarding this, many methods have arisen in the past decade, some of which are machine learning-based. The more efficient ones, however, have been aiming to further improve the concept of artificial intelligence by fusing information extraction with neural networks, what it is call as deep learning techniques, a recent and challenging field in computer vision. This paper tries to survey the methods that still are the basis of the newest researches, such as PointNet, as well as those techniques that could reach new state-of-the-art results in scene and 3D models semantic segmentation based on point clouds. A comparative analysis between methods is performed for this purpose, taking into account some characteristics considered important.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados