Análisis Discriminante no Lineal (ADnL), en términos de esta memoria, es una red neuronal artificial que combina las característics de un perceptron multicapa (PMC) y el análisis discriminante lineal de Fisher para obtener un clasificador supervisado para C clases, pero con la ventaja sobre los PMCs de estar libre de cargas de identificación; lo que en parte, permite mejorar la clasificación de patrones en muestras con probabilidades a priori muy divergentes.
ADnL, como red neuronal, minimiza funciones criterio que son válidas dentro del contexto del discriminante lineal de Fisher; por lo que en esta memoria se analizan tres funciones criterio válidas y que se diferencian entre sí en la información intrínseca de la muestra a analizar que contienen cada una de ellas. De este modo, los resultados obtenidos experimentalmente indican que en general cuanto más información intrínseca de la muestra contenga el criterio elegido mejor será la clasificación final.
Se estudia ampliamente la convergencia de ADnL y se hace especial hincapié en la mejora de la técnica de descenso por gradiente. Con ayuda de la matriz de información de Fishcer desarrollada específicamente para ADnL y la métrica de Riemann asociada a dicha matriz de información se define el gradiente natural para ADnL. Los resultados obtenidos al incluir las aproximaciones propuestas para el descenso por gradiente natural muestran la deseada aceleracion de la convergencia y añaden la ventaja de obtener mínimos de la función criterio a evaluar en ADnL ciertamente más significativos que los que se obtienen con el mismo método de minimización y la métrica clásica Euclídea.
Continuando con el estudio de la red ADnL, se han introducido procedimientos de selección de la arquitectura óptima, mediante dos técnicas estadísticas que actúan en dos zonas diferentes de la arquitectura de ADnL:
1,- La combinación de la anterior aproximación de la matriz de i
© 2001-2024 Fundación Dialnet · Todos los derechos reservados