Ayuda
Ir al contenido

Dialnet


Algoritmo acelerador regresio versión gamma con gradiente local de error para entrenamiento de redes neuronales perceptrón multicapa

  • Autores: Fausto M. Castro, Pablo Emilio Jojoa
  • Localización: Gerencia Tecnológica Informática, ISSN 1657-8236, Vol. 14, Nº. 39, 2015, págs. 65-74
  • Idioma: español
  • Títulos paralelos:
    • Gamma version regressive accelerator algorithm with local error gradient for multilayer preceptron neural network training
  • Enlaces
  • Resumen
    • español

      Se presenta un nuevo algoritmo para el entrenamiento de redes neuronales perceptrón multicapallamado Acelerador Regresivo versión Gamma con Gradiente Local de Error. Este algoritmo se basa enlos mismos principios que rigen la actualización de parámetros en el algoritmo Acelerador Regresivoversión Gamma. El algoritmo Acelerador Regresivo versión Gamma con Gradiente Local de Error sevalida mediante diferentes problemas relacionados con aproximación de funciones y reconocimiento depatrones. Los resultados muestran buen comportamiento en cuanto a convergencia y generalización,mejorando la tasa de aprendizaje del algoritmo “backpropagation”.

    • English

      A new algorithm is presented for Multi-Layer Perceptron Neural Networks training, which is called Gamma version regressive accelerator algorithm with local error gradient. This algorithm is based on the same principles as parameter actualization in Gamma version regressive accelerator algorithm. Gamma version regressive accelerator algorithm with local error gradient is validated through different problems related to pattern recognition and fitting function. Results show good convergence and generalization, and improving the learning rate of back propagation algorithm.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno