Ayuda
Ir al contenido

Dialnet


Methods and techniques for analyzing human factors facets on drivers

  • Autores: Botyuu Oscar Sipele Siale
  • Directores de la Tesis: Agapito Ismael Ledezma Espino (dir. tes.), María Araceli Sanchís de Miguel (codir. tes.)
  • Lectura: En la Universidad Carlos III de Madrid ( España ) en 2022
  • Idioma: inglés
  • Tribunal Calificador de la Tesis: José María Armingol Moreno (presid.), Felipe Jiménez Alonso (secret.), Luis Marti (voc.)
  • Programa de doctorado: Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de Madrid
  • Materias:
  • Enlaces
  • Resumen
    • Con millones de coches desplazándose diariamente, la conducción es la actividad más realizada en todo el mundo. Desgraciadamente, según la Organización Mundial de la Salud (OMS), cada año mueren alrededor de 1,35 millones de personas en todo el mundo debido a accidentes de tráfico y, además, entre 20 y 50 millones de personas resultan heridas, situando los accidentes de tráfico como la segunda causa de mortalidad en personas de entre 5 y 29 años. Según la OMS, los errores humanos, tales como el exceso de velocidad, la conducción bajo los efectos de las drogas, la fatiga o las distracciones al volante, son la causa subyacente en la mayoría de los accidentes de tráfico. Informes globales sobre seguridad vial como “Road safety in the European Union. Trends, statistics, and main challenges” elaborado por la Comisión Europea en 2018 presentó un análisis estadístico en el que se relacionaba tasas de mortalidad por accidente de tráfico y periodos de tiempo segmentados por horas y días de la semana. Este informe reveló que la mayor incidencia de mortalidad se produce de manera recurrente por las tardes durante los días laborables, coincidiendo con el periodo en el que aumenta el volumen de tráfico y en el que cualquier error humano es mucho más susceptible de provocar un accidente de tráfico.

      Por ello, la mitigación de los errores humanos en la conducción es un reto, y actualmente hay una corriente creciente en la propuesta de soluciones tecnológicas cuya finalidad es integrar la información del conductor en los sistemas avanzados de conducción para mejorar su rendimiento y ergonomía. El estudio de factores humanos en el ámbito de la conducción es un campo multidisciplinar en el que confluyen diversas áreas de conocimiento entre los que destacan la psicología, la fisiología, la instrumentación, el tratamiento de señales, el aprendizaje automático, la integración de tecnologías de información y comunicación (TICs) y el diseño de interfaces de comunicación humano-máquina.

      Esta tesis tiene como objetivo principal explotar el conocimiento relacionado con las distintas facetas de los factores humanos en el ámbito de la conducción. Entre los objetivos específicos se cubre la identificación de las tareas relacionadas con la conducción, la detección de estados cognitivos desfavorables en el conductor como es el estrés y, de manera transversal, la propuesta de una arquitectura para la integración y coordinación de sistemas de monitorización del conductor con otros sistemas de seguridad activa. Cabe destacar que los objetivos específicos abordan los aspectos clave en la problemática de cada uno de los asuntos a tratar.

      La identificación de tareas específicas de conducción es uno de los aspectos primordiales dentro del marco conceptual del modelado del conductor. Determinar las maniobras que un conductor ejecuta durante la conducción requiere entrenar previamente un modelo con ejemplos de cada una de las maniobras que se desea identificar. Con este fin, se estableció una metodología para conformar conjuntos de datos que establecen una relación entre el manejo de los controles de conducción (ángulo de giro del volante, nivel de presión de los pedales de freno, aceleración y embrague, marcha engranada en la palanca de cambios y activación de los indicadores de giro), los parámetros de la dinámica del vehículo (velocidad, velocidad del motor y fuerza de torque del volante) y una serie de maniobras debidamente identificadas. Dicha metodología consistió en el diseño de diferentes escenarios en un simulador de conducción realista para cada tipo de maniobras, entre las que se incluyen parada, adelantamiento, giros de noventa grados, y maniobras específicas como el giro en U y el giro en tres puntos, atendiendo a detalles específicos en el diseño de los escenarios que favorezcan la ejecución aislada de las maniobras. El experimento de conducción fue realizado por 6 participantes para la recogida de un total de 570 maniobras, de las cuales 342 fueron etiquetadas mediante la introducción de marcas al principio y final de la ejecución de cada maniobra, y las 228 instancias restantes no fueron etiquetadas con el fin de proporcionar un conjunto de prueba. La experimentación realizada sobre el conjunto de datos se basó en un sistema híbrido en el que en primer lugar se identificaron las estructuras internas (acciones atómicas, tareas) presentes en el conjunto de maniobras mediante Evolving Systems y, posteriormente, se empleó un sistema basado en el conocimiento para asociar la composición de secuencias específicas de tareas con cada una de las maniobras. Los resultados fueron prometedores en la detección de las diferentes maniobras evaluadas.

      Desde la perspectiva de la detección de los estados cognitivos desfavorables en el conductor, el estrés puede influir negativamente en las facultades cognitivas, provocando fallos en el proceso de toma de decisiones. Las señales fisiológicas tales como medidas derivadas del ritmo cardiaco o el cambio de propiedades eléctricas de la piel son indicadores fiables a la hora de evaluar si una persona está atravesando por un episodio de estrés agudo. Sin embargo, la detección de patrones de estrés en tiempo real es aún un problema abierto. A pesar de los avances en diseño de sensores para la recogida no invasiva de señales fisiológicas, los problemas asociados a la variabilidad de los datos impiden alcanzar modelos capaces de detectar patrones de estrés en cualquier sujeto.

      En esta tesis se abordan dos aspectos de la detección del estrés: la recogida de valores fisiológicos durante la inducción de estrés mediante técnicas de laboratorio como el efecto Stroop y pruebas de conducción; y la detección de estrés mediante el diseño de un flujo de procesos basado en técnicas de aprendizaje no supervisado, tomando como información de entrada la actividad electrodérmica (EDA) obtenida mediante dispositivo llevables y no invasivos. La instrumentación utilizada para realizar este estudio centro únicamente en el uso de los dispositivos llevables Empatica E4 Wristband y CONTEC CMS50D+, tanto para la recogida de datos, como para la obtención de conjuntos de datos de acceso público para la validación y la comparación de resultados.

      El modelo diseñado para la detección de estrés en tiempo real profundiza en la problemática asociada a la variabilidad de las medidas fisiológicas intra e interindividuales que impiden la consecución de modelos generalistas, proponiendo soluciones a cada uno de los aspectos que afectan al tratamiento de la señal EDA. De este modo, el marco de trabajo propuesto está alineado con la metodología “Divide and Conquer”, en la que un problema complejo se divide en subproblemas más fácilmente abordables. La validación del marco de trabajo planteado fue realizada utilizando el conjunto de datos WESAD. Este conjunto de datos recoge información fisiológica de 15 participantes mientras realizaban un experimento dividido por actividades ampliamente utilizadas en el campo de la psicología para inducir cambios en el estado emocional y cognitivo, tales como la prueba de estrés social de Trier, la diversión basada en la visualización de videos o ejercicios de mindfulness para la relajación.

      El primer subproblema se centra en la agrupación de subjetos en base a características comunes. Descartando las soluciones completamente personalizadas, en este problema se plantea el uso de métodos para la agrupación de usuarios como punto de partida hacia la consecución de modelos de carácter más general. En este análisis se eludió el uso de la información demográfica de los participantes, empleando única y exclusivamente la información fisiológica de los sujetos para la búsqueda de niveles jerárquicos en los datos. Para ello, se calcularon los histogramas de alta resolución de la señal de EDA de cada uno de los individuos, obteniendo la densidad de frecuencias en un rango de entre 0 y 20 microsiemens y una resolución de 0.05 microsiemens. Este conjunto de datos fue utilizado para ajustar un conjunto de modelos de mezcla gaussiana (GMM) creados con diferentes parámetros de configuración y el criterio de información bayesiano fue la heurística empleada para evaluar los modelos resultantes. Como resultado se obtuvo un modelo en el que se distinguen cuatro perfiles de usuario y la agrupación de usuarios resultante se preservó a lo largo del resto de procesos que constituyen el marco de trabajo.

      El segundo subproblema consistió en solventar la inconsistencia en la escala que surge a la hora de procesar la señal de EDA y generar un conjunto de datos a partir de las señales de varias personas. La inconsistencia de escala reside en las diferencias entre las respuestas fisiológicas que surgen, tanto en una persona en distintos instantes de tiempo (intraindividuales) como a varias personas (interindividuales), frente a la exposición a un mismo estímulo, siendo este un problema que las funciones de normalización o de estandarización no pueden solventar, sobre todo en el ámbito del análisis en tiempo real. La solución del problema se planteó mediante la caracterización del estado de la señal de EDA a partir de pequeños fragmentos y teniendo como restricciones la recepción de flujos de datos en tiempo real y prohibición del uso de datos individuales previamente almacenados. De este modo, la caracterización de fragmentos de EDA consistió en un flujo de proceso en el que intervinieron: 1) el uso de la transformada continua de Wavelet (CWT) para realizar un análisis en el espacio tiempo-frecuencia, eludiendo de este modo los problemas de escala presentes en el dominio del tiempo. Empleando la CWT se obtuvo un conjunto de datos en el que fragmentos de 10 segundos de señal EDA fueron transformados a representación bidimensional, permitiendo de ese modo analizar la evolución de múltiples espectros de la señal a lo largo del tiempo; 2) la aplicación de análisis de componentes principales (PCA) para reducir la dimensionalidad de las CWT con la menor perdida de información de varianza; (3) algoritmos de agrupación k-medias para el particionamiento del espacio muestral resultante del PCA. Como resultados se obtuvieron regiones bien diferenciadas en el espacio muestral, permitiendo de ese modo distinguir los estados de EDA de forma discreta. El análisis de silueta reveló que las áreas frontera entre dos particiones es más difusas, donde la pertenencia a una u otra región no es clara.

      El tercer subproblema concierne a la preservación del carácter temporal señal de EDA, evitando analizar de forma aislada los fragmentos de la señal de EDA. De este modo, se plantea la identificación de patrones asociados al estrés a partir del análisis de la EDA basado en secuencias, estableciendo una relación entre la sucesión de eventos en la señal EDA. Para ello, se obtuvo una representación simbólica de la EDA a partir de la clasificación de estados obtenida en el proceso anterior. Esto permitió construir un conjunto de datos basado en secuencias de símbolos y asociarlas a las diferentes fases (base, estrés, diversión y relajación). El conjunto de secuencias fue representado mediante arboles de recuperación. Esto permitió obtener todas las combinaciones de símbolos (subsecuencias) de cualquier longitud presentes a lo largo de todo el conjunto. La finalidad de este estudio fue determinar la relevancia de cada subsecuencia en relación en base a dos criterios: su singularidad vinculada a la fase y su capacidad de generalización, para lo que se proposieron diferentes métricas para la evaluación de subsecuencias en este dominio. En este análisis se contemplaron subsecuencias entre dos y cinco símbolos de longitud. Este estudio reveló que las secuencias de longitud dos no aportan ninguna diferenciación estadística entre patrones extraídos en distintas fases del experimento. Sin embargo, el análisis de tres o más símbolos de longitud presentaba patrones diferenciables propios de las fases de estrés y de relajación. De este modo, se determinó la unidad mínima de información para el análisis de secuencias de EDA.

      Para validar el conocimiento inferido a través del marco de trabajo para la detección de estrés en tiempo real basado en aprendizaje no supervisado, se empleó todo el procesamiento de datos para aplicar diferentes algoritmos de aprendizaje supervisado sin realizar una optimización de parámetros que maximice los resultados en términos de precisión. La experimentación se realizó aplicando un enfoque de clasificación binaria (estrés-vs-no-estrés) y métodos de validación cruzada considerando tanto modelos generales como modelos semi-personalizados basado en la segmentación de usuarios. Entre los resultados de los distintos algoritmos de clasificación probados, Random Forest obtuvo mejores resultados para detección de estrés, con un 95.67% de precisión global y un 92.51% de F1-score para el modelo general y un 99.06% de precisión global media y 97.9% de F1-score medio para los modelos semi-personalizados. Los resultados obtenidos fueron muy superiores a todos los estudios que utilizaron el conjunto de datos WESAD para validar sus propuestas. A comparación de otros estudios, el modelo propuesto para la detección de estrés únicamente emplea el sensor EDA, haciendo posible plantear su uso en entornos de conducción.

      Finalmente, además del desarrollo de modelos que abordan las diferentes facetas de monitorización, la orquestación de los sistemas de monitorización y sistemas de seguridad activa es un aspecto transversal y esencial en la mejora de la seguridad, ergonomía y la experiencia de conducción. Tanto desde la perspectiva de la integración en plataformas de prueba como en la integración en sistemas finales, el problema del despliegue de múltiples sistemas de seguridad activa reside en la adopción de modelos monolíticos donde la funcionalidad específica de cada sistema se ejecuta de manera aislada, sin contemplar aspectos como la cooperación e interoperabilidad con otros sistemas de seguridad. En esta tesis se aborda problema del desarrollo de sistemas más complejos donde los sistemas de monitorización condicionan la operabilidad de múltiples sistemas de seguridad activa. Para ello, se propone una arquitectura de mediación encargada de coordinar la recepción y entrega de los flujos de datos generados por los diversos sistemas involucrados entre los que se incluyen sensores exteroceptivos (láseres, cámaras exteriores), sensores del habitáculo (cámaras, smartwatches), modelos de detección, modelos deliberativos, sistemas de entrega e interfaces de comunicación máquina-humano. El uso de arquitecturas de mediación permite la gestión de flujos de información heterogéneos de una forma escalable, flexible y descentralizada. De eso modo, estos sistemas fueron conceptualizados como agentes, donde cada uno actúa con el fin de alcanzar su cometido. El modelado de datos basado en ontologías tiene un papel crucial en la estructuración de toda esta información y consolidación de la representación semántica de la escena de conducción, permitiendo de este modo el desarrollo de modelos basados en fusión de datos.

      Como parte de la experimentación, el modelo de arquitectura planteado fue desplegado en el sistema de simulación de conducción STISIM drive, siendo este utilizado como plataforma de pruebas. Para el desarrollo de las pruebas se planteó un sistema avanzado de apoyo a la conducción basado en la fusión datos que integraba diferentes alertas de conducción tales como la alerta de colisión frontal, riesgo de atropello, peatón cruzando, vehículo en el ángulo ciego y la alerta de incorporación de otro vehículo. La abstracción de la escena de la conducción permitió la representación de las situaciones empleando un sistema basado en el conocimiento para identificarlas. La particularidad de este sistema se basa en que el lanzamiento de las alarmas fue condicionado mediante el análisis de estado de atención del conductor. Para ello, un sistema de visión por computador fue desarrollado para monitorizar la mirada del conductor en tiempo real, proporcionando una estimación del área inspeccionada por el conductor. La activación condicionada de alarmas establece una relación entre el lugar crítico donde se produce el peligro y el lugar donde la atención visual del conductor está localizada. La experimentación consistió en evaluar la influencia del sistema en escenarios de conducción en los que se introdujeron eventos repentinos asociados a cada una de las alertas de conducción. La evaluación de la conducción sin el sistema de alertas y con el sistema de alertas constó de una evaluación cuantitativa para evaluar el tiempo de reacción y el número de accidentes producidos; y de una evaluación cualitativa en la que se evaluó la experiencia de conducción mediante cuestionarios. Los resultados tras una evaluación con diez conductores mostraron una mejora en el tiempo de respuesta cuando trataban de evitar los peligros presentados durante la conducción con el sistema de alertas. Además, usuarios evaluaron positivamente la usabilidad del sistema del sistema de alerta planteado.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno