Varios métodos de optimización son usados en este artículo con el propósito de mostrar su comportamiento sobre diferentes superficies de desempeño y concluir sobre la eficiencia de cada uno de ellos en el entrenamiento de las redes neuronales. Entre estos métodos están: gradiente descendente, Newton Raphson, gradiente conjugado y sus adaptaciones para ser usados en redes multicapa como son los métodos de propagación hacia atrás básico y Levenberg-Marquardt.
Several optimization methods are used in this article in order to show the behavior on performance surfaces and to conclude about efficiency in neuronal networks training. These methods are: descendent gradient, Newton Raphson, conjugated gradient and its adaptations to multilayer networks: basic backpropagation and Levenberg-Marquardt.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados