Ayuda
Ir al contenido

Dialnet


Resumen de Diversidad explícita en modelos de ensembles de extreme learning machine

Carlos Perales González

  • Extreme Learning Machine(ELM) ha mostrado ser un rápido algoritmo de aprendizaje automático, adecuado para problemas de regresión y clasificación. Con el fin de generalizarlos resultados del ELM estándar, varios métodos de ensemble han sido desarrollados. Estos métodos de ensemble son meta-algoritmos que generalizan los resultados de los ELMs, generando varios predictores base cuyas predicciones se combinan en una predicción de conjunto final. La mayoría de estos métodos confían en el muestreo de datos para generar predictores diferentes y conseguir así la generalización de los resultados. Estos métodos tienen como hipótesis que los datos de entrenamiento son suficientemente heterogéneos para que los predictores generados sean diversos entre sí. En esta tesis, se proponen métodos de ensemble que promueven la diversidad explícitamente, evitando la hipótesis de que los datos deben de muestrearse de manera diversa. Esta promoción de la diversidad se realiza a través de las funciones objetivo de los ELMs, usando ideas del entorno de trabajo de Negative Correlation Learning(NCL).La formulación de la diversidad a través de la función objetivo de ELM permite desarrollar una solución analítica para los parámetros de los ELMs base. Esto reduce significativamente el coste computacional, comparado con la versión clásica de NCL para redes neuronales artificiales. De manera adicional, los métodos ensemble propuestos han sido validados mediante estudios experimentales con conjuntos de datos de benchmark, comparando con métodos ensemble existentes en la literatura ELM.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus