Ayuda
Ir al contenido

Dialnet


Obtención de coberturas del suelo agropecuarias en imágenes satelitales Sentinel-2 con la inyección de imágenes de dron usando Random Forest en Google Earth Engine

    1. [1] Departamento Administrativo Nacional de Estadística
  • Localización: Revista de teledetección: Revista de la Asociación Española de Teledetección, ISSN 1133-0953, Nº. Extra 56, 2020 (Ejemplar dedicado a: Applications of Copernicus Sentinel Satellites; V-XI), págs. 49-68
  • Idioma: español
  • Títulos paralelos:
    • Obtaining agricultural land cover in Sentinel-2 satellite images with drone image injection using Random Forest in Google Earth Engine
  • Enlaces
  • Resumen
    • español

      Para obtener información precisa sobre los cambios de la cubierta terrestre en el sector agrícola, proponemos un método de clasificación supervisada que integra las imágenes del satélite Sentinel-2 con las imágenes obtenidas de los Sistemas de Aeronaves Pilotadas a Distancia (RPAS, por sus siglas en inglés). La metodología se aplicó en la plataforma de Google Earth Engine. Inicialmente, la colección de imágenes de Sentinel-2 se integró en una sola imagen mediante un proceso de reducción de mediana. Posteriormente, se aplicó el método de fusión de imágenes de pansharpening con filtro de paso alto (HPF, por sus siglas en inglés) a las bandas espectrales térmicas para obtener una resolución espacial final de 10 m. Para realizar la integración de las dos fuentes de imágenes, la imagen del RPAS se normalizó utilizando un filtro de textura gaussiano de 5×5 y el píxel se re-muestreó a cinco veces su tamaño original. Este procedimiento se realizó de forma iterativa hasta alcanzar la resolución espacial de la imagen del Sentinel-2. Además, se añadieron a la clasificación los siguientes datos: los índices espectrales, calculados a partir de las bandas de Sentinel-2 y RPAS (por ejemplo, NDVI, NDWI, SIPI, GARI), la información altimétrica y las pendientes de la zona derivadas del MED SRTM. La clasificación supervisada se realizó utilizando la técnica de Random Forest (Machine Learning). La referencia de la semilla de la cubierta terrestre para realizar la clasificación fue capturada manualmente por un experto temático, luego, esta referencia fue distribuida en un 70% para el entrenamiento del algoritmo de Random Forest y en un 30% para validar la clasificación. Los resultados muestran que la incorporación de la imagen RPAS mejora los indicadores de precisión temática en un promedio del 3% en comparación con una clasificación realizada exclusivamente con imágenes de Sentinel-2.

    • English

      To obtain accurate information on land cover changes in the agricultural sector, we propose a supervised classification method that integrates Sentinel-2 satellite imagery with images surveyed from Remote Piloted Aircraft Systems (RPAS). The methodology was implemented on the Google Earth Engine platform. Initially, the Sentinel-2 imagery collection was integrated into a single image through a median reduction process. Subsequently, the high-pass filter (HPF) pansharpening image fusion method was applied to the thermal spectral bands to obtain a final spatial resolution of 10 m. To perform the integration of the two image sources, the RPAS image was normalized by using a 5X5 gaussian texture filter and the pixel was resampled to five times its original size. This procedure was performed iteratively until reaching the spatial resolution of the Sentinel-2 imagery. Besides, the following inputs were added to the classification: the spectral indices calculated from the Sentinel-2 and RPAS bands (e.g. NDVI, NDWI, SIPI, GARI); altimetric information and slopes of the zone derived from the SRTM DEM. The supervised classification was done by using the Random Forest technique (Machine Learning). The land cover seed reference to perform the classification was manually captured by a thematic expert, then, this reference was distributed in 70% for the training of the Random Forest algorithm and in 30% to validate the classification. The results show that the incorporation of the RPAS image improves thematic accuracy indicators by an average of 3% compared to a classification made exclusively with Sentinel-2 imagery.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno