Eliana Mirledy Toro Ocampo, Mauricio Granada Echeverri, Antonio Hernando Escobar Zuluaga
Varios métodos de optimización son usados en este artículo con el propósito de mostrar su comportamiento sobre diferentes superficies de desempeño y concluir sobre la eficiencia de cada uno de ellos en el entrenamiento de las redes neuronales. Entre estos métodos están: gradiente descendente, Newton Raphson, gradiente conjugado y sus adaptaciones para ser usados en redes multicapa como son los métodos de propagación hacia atrás básico y Levenberg-Marquardt.
Several optimization methods are used in this article in order to show the behavior on performance surfaces and to conclude about efficiency in neuronal networks training. These methods are: descendent gradient, Newton Raphson, conjugated gradient and its adaptations to multilayer networks: basic backpropagation and Levenberg-Marquardt.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados