El leitmotiv de esta Tesis es la búsqueda de interpretaciones con contenido explicable para Machine Learning. La explicabilidad la interpretamos como la fundamentación de los métodos desarrollados sobre técnicas algebraicas y estadísticas sólidas. El punto de partida es la relación entre el Probabilistic Latent Semantic Analysis y el Teorema de Descomposición en Valores Singulares. El trabajo se basa en la interpretación de la estructura de la dimensionalidad del espacio de factorización.
Con estas condiciones, la búsqueda del significado de la matriz diagonal se relaciona con el kernel de Fisher. El álgebra de las matrices de entradas no negativas soporta estas estructuras de forma natural. El resultado que derivamos es que este kernel puede obtenerse de esta forma. Con la divergencia de Bregman demostramos que el error de clasificación es arbitrariamente pequeño, preservando la consistencia.
Una consecuencia que examinamos es el comportamiento asintótico de las trazas que se obtienen con estas matrices. Su esperanza es un estadístico modelado por una densidad que obedece a una densidad gamma. La estimación es eficiente. Aplicamos este resultado al problema de clustering, lo que permite construir un criterio de validación. El resultado novedoso es que permite la inferencia (en sentido estadístico) en la validación de la clusterización.
Se presentan los desarrollos teóricos que nos permiten llegar a cada conclusión. Además, proporcionamos ejemplos de aplicación para los resultados que hemos derivado.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados