Sebastian Bedoya Mazo, John Fredy Ramírez, José Fernando Guarín Montoya
La visión por computadora se está utilizando en la Pecuaria de Precisión para monitorear y analizar la salud, el comportamiento y la productividad de los animales. Sin embargo, la implementación de estas tecnologías enfrenta desafíos técnicos que requieren la colaboración entre agricultores, investigadores y proveedores de tecnología. En este estudio, se comparó el desempeño de dos enfoques diferentes de identificación de vacas lecheras en pastoreo utilizando un modelo de visión por computadora basado en ResNet. El primer enfoque consistió en la clasificación de imágenes, mientras que el segundo enfoque se basó en la comparación de características o embeddings. Se utilizó el modelo YOLOv5 para detectar y clasificar las vacas en imágenes capturadas con tres cámaras de alta definición en una finca lechera. Se generó una base de datos que consta de dos carpetas principales: “TRAIN” y “TEST” con base en 19 va-cas lecheras de la raza Holstein. Cada carpeta contiene 19 subcarpetas numeradas del 001 al 019, correspondientes a cada vaca. Se usaron 4740 y 2256 imágenes para entrenar y validar los enfoques, respectivamente. Se empleó FastAI para el entrenamiento del modelo ResNet50 en el primer enfoque y el proyecto de código abierto de PyTorch ReID en el segundo. Se realizaron pruebas de validación de los modelos entrenados con los enfoques y se compararon los resultados utilizando una matriz de confusión y cinco métricas de desempeño. Los resultados indican que el enfoque de comparación de embeddings tuvo un rendimiento significativamente mejor en todas las pruebas de validación en comparación con el enfoque de clasificación de imágenes. Esto sugiere que el enfoque de comparación de embeddings es una técnica más robusta y precisa para la identificación de vacas Holstein en condiciones diversas, lo que tiene un gran potencial para su aplicación en la implementación de sistemas automatizados de monitoreo para granjas lecheras. En resumen, este estudio muestra que la visión por computadora es una herramienta valiosa para mejorar la productividad y la salud de los animales en la Pecuaria de Precisión
Computer vision is being used in Precision Livestock Farming to monitor and analyze animal health, behavior, and productivity. However, the implementa-tion of these technologies faces technical challenges that require collabora-tion between farmers, researchers, and technology providers. In this study, the performance of two different grazing dairy cow identification approaches was compared using a ResNet-based computer vision model. The first approach consisted of image classification, while the second approach was based on the comparison of features or embeddings. The YOLOv5 model was used to detect and classify cows in images captured with three high-definition cameras on a dairy farm. A database consisting of two main folders: “TRAIN” and “TEST” was generated based on 19 Holstein dairy cows. Each folder contains 19 sub-folders numbered from 001 to 019, corresponding to each cow. The approa-ches for the identification of cows were trained and validated using 4740 and 2256 images, respectively. FastAI was used for training the ResNet50 model in the first approach and the open-source PyTorch ReID project in the second. Validation tests of the models trained with the approaches were performed and the results were compared using a confusion matrix and five performance metrics. The results indicate that the embedding comparison approach per-formed significantly better in all validation tests compared to the image classi-fication approach. This suggests that the embedding comparison approach is a more robust and accurate technique for the identification of Holstein cows under diverse conditions, which has great potential for its application in the implementation of automated monitoring systems for dairy farms. In sum-mary, this study shows that computer vision is a valuable tool to improve the productivity and health of animals in Precision Farming
© 2001-2024 Fundación Dialnet · Todos los derechos reservados