Celia Sanchez-Giron Coca, Miguel García Gómez, Jaime Duque Domingo, Jaime Gómez García-Bermejo, Eduardo Zalama Casanova
Cada vez más personas mayores optan por vivir en su hogar, lo que ha generado una necesidad crítica de asegurar entornos seguros para esta población. Las caídas representan una de las principales causas de lesiones entre los adultos mayores. Con este estudio se busca detectar caídas implementando un sistema de visión, que puede ayudar a prevenir futuras caídas detectando potenciales problemas de salud. Aquí se propone una metodología basada en el uso de modelos de aprendizaje profundo, específicamente utilizando la técnica de Cross Validation Voting, para mejorar la generalización y la precisión en la detección de caídas a partir de imágenes. El modelo planteado ha conseguido una exactitud de un 92.95% y una pérdida del 0.1885 para el conjunto de test. El sistema de detección de caídas ha sido integrado en el robot social Temi, que se introducirá en el domicilio de los usuarios para monitorear continuamente su bienestar y proporcionar asistencia inmediata en caso de detectar una caída.
More and more older adults are choosing to live at home, which has created a critical need to ensure safe environmentsfor this population. 50 % of people over the age of 80 experience at least one fall per year. This study seeks to detect falls by implementing a vision system, providing a rapid response in case of emergency, so that the fallen person has assistance if he/she suffers an accident. Here we propose a methodology based on the use of deep learning models, specifically using the Cross Validation Voting(CVV) technique, to improve generalization and accuracy in detecting falls from images. The proposed model achieved an accuracy of 92.95 % and a loss of 0.1885 for the test set. The fall detection system has been integrated into theTemi social robot, which will be introduced in the users’ home to continuously monitor their well-being and provide immediate assistance in case a fall is detected.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados