Ayuda
Ir al contenido

Dialnet


Resumen de Fusión de imágenes hiperespectrales y multiespectrales basado en un modelo de escacez centralizado no local de mapas de abundancias

Edwin Vargas, Kevin Arias, Fernando Rojas, Henry Arguello Fuentes

  • español

    Objetivo: Sistemas de adquisición de imagen hiperespectral (HS) son comúnmente usados en un rango diverso de aplicaciones que involucran tareas de detección y clasificación. Sin embargo, la baja resolución de imágenes hiperespectrales podría limitar el rendimiento de las tareas implicadas en dichas aplicaciones. En los últimos años, fusionar la información de una imagen HS con imágenes multiespectrales (MS) o pancromáticas (PAN) de alta resolución espacial ha sido ampliamente usado para mejorar la resolución espacial. La fusión de imágenes ha sido formulada como un problema inverso cuya solución es una imagen HS, la cual se asume escasa en un diccionario analítico o aprendido. Este trabajo propone un modelo de representación escasa centralizado no local sobre un conjunto de diccionarios aprendidos para regularizar el problema de fusión convencional.Metodología: Los diccionarios son aprendidos a partir los mapas de abundancia estimados para explotar la correlación entre mapas de abundancia y la auto-similitud no local sobre el dominio espacial. Luego, condicionalmente sobre los diccionarios aprendidos, el problema de fusión es solucionado por un algoritmo numérico iterativo y alternante.Resultados: Los resultados experimentales usando datos reales muestra que el método propuesto supera los métodos del estado del arte bajo diferentes métricas cuantitativas. Conclusiones: En este trabajo nosotros proponemos un método de fusion de imágenes espectrales y multiespectrales basado en un representación no-local centralizada escasa en mapas de abundancias. Este modelo permite incluir la redundancia no local en el problema de fusion usando desmezclado espectral y mejorar los resultados de los métodos de fusión basados en modelo de escaces.

  • English

    Objective: Hyperspectral (HS) imaging systems are commonly used in a diverse range of applications that involve detection and classification tasks. However, the low spatial resolution of hyperspectral images may limit the performance of the involved tasks in such applications. In the last years, fusing the information of an HS image with high spatial resolution multispectral (MS) or panchromatic (PAN) images has been widely studied to enhance the spatial resolution. Image fusion has been formulated as an inverse problem whose solution is an HS image which assumed to be sparse in an analytic or learned dictionary. This work proposes a non-local centralized sparse representation model on a set of learned dictionaries in order to regularize the conventional fusion problem.Methodology: The dictionaries are learned from the estimated abundance data taking advantage of the depth correlation between abundance maps and the non-local self- similarity over the spatial domain. Then, conditionally on these dictionaries, the fusion problem is solved by an alternating iterative numerical algorithm.Results: Experimental results with real data show that the proposed method outperforms the state-of-the-art methods under different quantitative assessments.Conclusions: In this work, we propose a hyperspectral and multispectral image fusion method based on a non-local centralized sparse representation on abundance maps. This model allows us to include the non-local redundancy of abundance maps in the fusion problem using spectral unmixing and improve the performance of the sparsity-based fusion approaches.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus