Ayuda
Ir al contenido

Dialnet


Signal processing algorithms for digital hearing aids

  • Autores: Lorena Álvarez Pérez
  • Directores de la Tesis: Enrique Alexandre Cortizo (dir. tes.)
  • Lectura: En la Universidad de Alcalá ( España ) en 2012
  • Idioma: inglés
  • Tribunal Calificador de la Tesis: Manuel Rosa Zurera (presid.), Lucas Cuadra Rodríguez (secret.), Máximo Cobos Serrano (voc.), Aníbal João de Sousa Ferreira (voc.), Antonio Pena Giménez (voc.)
  • Materias:
  • Enlaces
  • Resumen
    • español

      La pérdida de audición es un problema que generalmente sufren las personas de mediana edad y las más mayores, como consecuencia del envejecimiento natural y deterioro del sistema auditivo humano. Esta pérdida de audición afecta de manera significativa a la comunicación e imposibilita a la mayoría de las personas con discapacidad auditiva a llevar una vida normal. Aunque la inmensa mayoría de los casos de pérdida de audición (90 %) podrían tratarse mediante la utilización de audífonos, sin embargo, pocas personas que podrían beneficiarse de su uso (concretamente un 20 %) compra uno, e incluso, muchos de los que han comprado su audífono terminan por no utilizarlo, a pesar del fuerte desembolso económico que puede suponer la adquisición y mantenimiento de un audífono.

      Las razones para este aparentemente extraño comportamiento surge de la existencia de un problema fundamental, científico y tecnológico que, hasta día de hoy, no ha sido resuelto de manera eficiente y cómoda: la adaptación automática del audífono dependiendo del entorno sonoro en el que se encuentra el usuario. Se ha demostrado que la mayoría de las personas que hacen uso de audífonos prefieren tener una variedad de programas de amplificación adaptados a diferentes entornos sonoros, incluso aunque su funcionamiento no sea del todo perfecto. Hay dos posibles formas de satisfacer tal necesidad. Por un lado, existe el modo “manual”, en el que el usuario tiene que identificar el entorno sonoro en el que se encuentra, y elegir él mismo el programa de amplificación más apropiado para ese entorno, a través de un conmutador situado en el propio audífono o de alguna clase de control remoto. Este modo es bastante incómodo y en la mayoría de los casos excede las habilidades de muchos de los usuarios de audífonos, especialmente las de los más mayores. El segundo modo, probablemente más cómodo para el usuario, consiste en que el propio audífono clasifique el entorno en el que se encuentra el usuario y él mismo seleccione el programa de amplificación más apropiado para ese entorno. Este último modo permite a los usuarios de los audífonos mejorar la inteligibilidad de voz percibida, llevar una vida normal e incrementar su nivel de comodidad.

      Aunque parece evidente la necesidad de incluir un sistema de clasificación de sonidos en un audífono, su implementación es, por el contrario, algo difícil de conseguir. A pesar de los importantes avances en microelectrónica que ha habido en los últimos años, el desarrollo de un sistema de clasificación automática de sonidos en un audífono digital constituye todo un desafío debido a las limitaciones del procesador digital de señal (también conocido como DSP, de sus siglas en inglés, Digital Signal Processor ) en el que se basa cualquier audífono digital. Nótese que los audífonos digitales tienes importantes restricciones en términos de capacidad computacional, memoria y batería, que limitan la implementación de algoritmos complejos en ellos.

      Esta tesis se centra en el diseño e implementación de un prototipo de audífono digital capaz de clasificar automáticamente el entorno sonoro en el que se encuentra la persona que lleva el audífono y seleccionar el programa de amplificación mejor adaptado a ese entorno, con el objetivo de mejorar la inteligibilidad de voz percebida por el usuario.

      Esta tesis se puede dividir en tres partes. La primera de ellas está relacionada con el diseño de un sistema de clasificación automática de sonidos que permita clasificar correctamente la señal sonora de entrada entre voz, música y ruido (los entornos sonoros considerados en esta tesis). Nótese que esta parte no sólo implica la selección del conjunto de características más apropiado, sino también la selección del algoritmo de clasificación más adecuado y la optimización de sus parámetros para su futura implementación en el DSP. La segunda parte incluye el diseño de una función de ganancia que tiene como objetivo mejorar la percepción de la voz, no sólo en términos de inteligibilidad, sino también en términos de calidad. Finalmente, la última parte, quizás la más importante desde el punto de vista práctico, describe en detalle el modo en que, tanto el sistema de clasificación automática de sonidos y la función de mejora de la voz, son implementados en el DSP usado en esta tesis para llevar a cabo los experimentos.

      A continuación se describen las principales contribuciones de esta tesis:

      • El diseño de un conjunto de características de baja complejidad. La principal ventaja de este conjunto de características consiste en que el número de instrucciones requeridas por el DSP para su cálculo es muy bajo.

      • Un método de selección de características para la clasificación de sonidos en audífonos digitales haciendo uso de algoritmos genéticos que restriguen el espacio de búsqueda.

      • Un método que combina algoritmos de crecimiento y poda para perceptones multicapa (también conocidos como MLPs, de sus siglas en inglés, Multilayer Perceptrons), que permite determinar el número idóneo de neuronas ocultas en MLPs para cada problema de clasificación.

      • Un algoritmo que permite seleccionar automáticamente, entre varias aproximaciones lineales por tramos de la función de activación original (función logarítmica sigmoidal, en nuestro caso), la aproximación más apropiada para cada una de las neuronas de la capa oculta y de salida que forman un perceptrón multicapa.

      • El diseño de una función de ganancia para audífonos que mejore tanto la calidad, así como la inteligibilidad de la voz percebida por los usuarios. Esta función de ganancia se genera usando un modelo de mezcla de gausianas en el que sus parámetros se estiman por medio de algoritmos genéticos.

      • Un método que trata de “simplificar” la implementación del algoritmo de compresión-expansión (el núcleo principal de un audífono) en el DSP. La implementación práctica de este método consiste en almacenar en la memoria de datos del DSP, una matriz que contenga valores “tabulados” de la ganancia a aplicar en función del nivel de señal de entrada y de la banda de frecuencia.

      La conclusión final, global de esta tesis es que se ha desarrollado un prototipo de audífono digital que automáticamente clasifica el entorno sonoro en el que se encuentra su usuario y selecciona el programa de amplificación más apropiado para ese entorno, con el objetivo de aumentar tanto la calidad como la inteligibilidad de voz percibida por el usuario. La duración de la batería de este audífono es 140 horas (o equivalentemente, aproximadamente 6 días), valor muy similar a la duración de la batería de los audífonos disponibles en el mercado actualmente, y lo que es más importante aún, queda aproximadamente el 30 % de los recursos del DSP libre para la implementación de otros algoritmos, como, por ejemplo, aquellos que llevan a cabo separación de fuentes sonoras o la reducción de la realimentacióon acústica.

    • English

      Hearing loss is a problem that severely affects the speech communication and disqualify most hearing-impaired people from holding a normal life. Although the vast majority of hearing loss cases could be corrected by using hearing aids, however, only a scarce of hearing-impaired people who could be benefited from hearing aids purchase one. This irregular use of hearing aids arises from the existence of a problem that, to date, has not been solved effectively and comfortably: the automatic adaptation of the hearing aid to the changing acoustic environment that surrounds its user. There are two approaches aiming to comply with it. On the one hand, the "manual" approach, in which the user has to identify the acoustic situation and choose the adequate amplification program has been found to be very uncomfortable. The second approach requires to include an automatic program selection within the hearing aid. This latter approach is deemed very useful by most hearing aid users, even if its performance is not completely perfect. Although the necessity of the aforementioned sound classification system seems to be clear, its implementation is a very difficult matter. The development of an automatic sound classification system in a digital hearing aid is a challenging goal because of the inherent limitations of the Digital Signal Processor (DSP) the hearing aid is based on. The underlying reason is that most digital hearing aids have very strong constraints in terms of computational capacity, memory and battery, which seriously limit the implementation of advanced algorithms in them. With this in mind, this thesis focuses on the design and implementation of a prototype for a digital hearing aid able to automatically classify the acoustic environments hearing aid users daily face on and select the amplification program that is best adapted to such environment aiming at enhancing the speech intelligibility perceived by the user. The most important contribution of this thesis is the implementation of a prototype for a digital hearing aid that automatically classifies the acoustic environment surrounding its user and selects the most appropriate amplification program for such environment, aiming at enhancing the sound quality perceived by the user.

      The thesis can be divided into three major parts. The first one is related to the design of an automatic sound classification system that allows to properly discriminate the input sound signal into speech, music and noise (the acoustic environments considered in this thesis). Note that not only this part involve the selection of the best suited feature set, but also the selection of the most appropriate classifying algorithm and the optimization of its parameters for its further implementation in the DSP. The second part deals with the design of an approach that aims at enhancing speech in hearing aids, not only in terms of speech intelligibility but also in terms of speech quality. Finally, the third part, probably the most important from the practical point of view, describes in detail the way both the automatic sound classification system and the speech enhancement approach are implemented in the DSP used to carry out the experiments.

      The main contributions of this thesis are listed below:

      • The design of a set consisting of low-complexity features. The key advantage regarding this feature set consists in that the number of instructions demanded by the DSP for its computation is extremely low.

      • A feature-selection approach for sound classification in hearing aids through restricted search driven by genetic algorithms.

      • A combined growing-pruning method for multilayer perceptrons (MLPs) that aims at finding the most appropriate number of hidden neurons in MLPs for a particular classification task.

      • An algorithm for automatically selecting, among some piecewise linear approximations, the “approximated” activation function best suited for each of the hidden and output neurons comprising a multilayer perceptron.

      • The design of a gain function aiming at speech enhancement in hearing aids, not only in terms of speech quality but also in terms of speech intelligibility. This gain function is created by using a gaussian mixture model fueled by a genetic algorithm.

      • An approach that aims at “simplifying” the implementation of the compressorexpander algorithm (the very core of a hearing aid) in the DSP. The practical implementation of this approach consists in storing in the data-memory of the DSP, a table containing “tabulated” values of the gain to be applied as a function of both the input signal level (dB SPL) and the frequency band.

      The final, global conclusion is that we have implemented a prototype for a digital hearing aid that automatically classifies the acoustic environment surrounding its user and selects the most appropriate amplification program for such environment, aiming at enhancing the sound quality perceived by the user. The battery life of this hearing aid is 140 hours (or equivalently, approximately 6 days), which has been found to be very similar to that of hearing aids in the market, and what is of key importance, there is still about 30 % of the DSP resources available for implementing other algorithms, such as, for instance, those involved in sound source separation or acoustic feedback reduction.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno