Ayuda
Ir al contenido

Dialnet


Automatic chickpea classification using computer vision techniques

    1. [1] Universidad de Murcia

      Universidad de Murcia

      Murcia, España

    2. [2] University of Mohaghegh Ardabili
    3. [3] Technical University of Cartagena
  • Localización: IX Congresso Ibérico de Agroengenharia: Livro de Atas / coord. por José Carlos Barbosa, António Castro Ribeiro, 2018, ISBN 978-972-745-247-7, págs. 1167-1176
  • Idioma: inglés
  • Títulos paralelos:
    • Clasificación automática de garbanzos mediante técnicas de visión artificial
  • Texto completo no disponible (Saber más ...)
  • Resumen
    • español

      En este trabajo se comparan dos sistemas de visión artificial para la clasificación de garbanzos, uno basado en extracción de características y el otro en la utilización del color. Se tomaron 1019 imágenes con una cámara industrial DFK 23GM021, desde una altura fijada a 10 cm. de las muestras. La iluminación se realizó mediante lámparas LED de luz blanca con una intensidad de 327 lx. Para el primer método se extrajeron algunas características prefijadas de cada objeto, 126 de color y 80 de textura correspondientes a la matriz de coocurrencia del nivel de gris (GLCM). Tras extraer estas 206 características de cada objeto, las más efectivas fueron seleccionadas para la entrada del clasificador. Se utilizaron 6 características efectivas: información de correlación para la vecindad de ángulo de 135º, momento diagonal para ángulo de 90º, varianza de la suma para ángulo de 0º, media y media normalizada del segundo componente en el espacio de color CMY. Como clasificador se utilizó un híbrido entre red neuronal artificial y optimización por enjambre de partículas (ANN-PSO). Este método obtuvo una tasa de clasificación correcta (CCR) del 97,0%. Para el segundo método se eliminó la etapa de extracción y selección de características del proceso de clasificación. Se utilizaron directamente los valores RGB de las imágenes como entrada para una red neuronal de tres capas con retro propagación. Se llevó a cabo una segmentación inicial para seleccionar partes significativas de garbanzos, dividiendo las imágenes en cuadrículas para focalizar garbanzos individuales. Finalmente, se utilizó la moda de las predicciones para las sub-imágenes resultantes para predecir la clase de la imagen completa. Este método obtuvo un CCR de 99,3%. Estos resultados demuestran que la clasificación visual de variedades de frutas en agricultura puede ser resuelta de forma muy precisa con un método adecuado, que además resulta genérico y extensible a otros tipos de cultivos.

    • English

      In this research two different computer vision systems for chickpea classification are compared: the first method is based on feature extraction, while the second is based on color features. 1019 images corresponding to five different Iranian chickpea species were taken using an industrial camera DFK 23GM021, from a 10 cm fixed height above the samples level. Lighting was performed by white color LED lamps with an intensity of 327 lx. As a first approach, some predefined features were extracted from each object, 126 color-based and 80 texture features based on the gray level co-occurrence matrix (GLCM). After extracting these 206 features from each object, the most effective features were selected for the input of the classifier. Specifically, 6 effective features were selected: information measure of correlation related to neighborhood 135º angle, diagonal moment for 90º angle, sumvariance for 0º angle, inverse difference moment normalized for 0º angle, mean and normalized mean of the second component in CMY color space. A hybrid of artificial neural network and particle swarm optimization (ANNPSO) was used as a classifier. This method achieved a correct classification rate (CCR) of 97.0%. In the second approach, the stage of features extraction and selection was omitted. Thus, image patches (RGB pixel values) were directly used as input for a three layered backpropagation ANN. Prior segmentation was done to select significant chickpeas patches, dividing the images into smaller ones to focus on individual peas. Finally, the modal value of the predictions for the resulting sub-images was used to predict the class of the whole image. In this case, a CCR of99.3% was achieved. These results prove that visual classification of fruit varieties in agriculture can be done in a very precise way using a suitable method, which is also generic and extendable to other types of crops.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno