Ayuda
Ir al contenido

Dialnet


El principio de composicionalidad y los algoritmos de aprendizaje de máquina

  • Autores: Mauricio Molina Delgado, Eugenia Gallardo Allen
  • Localización: Revista de Filosofía de la Universidad de Costa Rica, ISSN 0034-8252, Vol. 63, Nº. 165, 2024, págs. 253-263
  • Idioma: español
  • Enlaces
  • Resumen
    • español

      El presente artículo explora las consecuencias que las críticas de Fodor y Pylyshyn en 1988 hacia las representaciones conexionistas podrían tener con respecto a los desarrollos recientes del Aprendizaje de Máquina. El cuestionamiento que estos autores realizan se suele denominar el reto de la sistematicidad. En particular, se analizará aquí el llamado principio de composicionalidad, el cual establece que el significado de una oración se determina por el significado de sus partes, principio del que según los citados autores no se puede dar cuenta mediante representaciones distribuidas (subsimbólicas). Para abordar el punto, se realiza una radiografía sobre el estado de la Ciencia Cognitiva y la Inteligencia Artificial (IA) a finales del siglo XX, en donde se emplea la distinción entre enfoques simbólicos y subsimbólicos; y se analiza el desarrollo de ambas disciplinas durante las primeras décadas del siglo XXI. Se concluye que las herramientas estadísticas adoptadas por el campo del Aprendizaje de Máquina mantienen características que permiten dividir estas técnicas mediante la distinción simbólico/subsimbólico, de modo que los argumentos de Fodor y Pylyshyn pueden en principio aplicarse a dichas técnicas. Las consecuencias de esto estarían emparentadas con el llamado problema de opacidad epistémica.

    • English

      This article explores the consequences that Fodor and Pylyshyn’s 1988 criticism of connectionist representations could have with respect to recent developments in Machine Learning. The questioning that these authors raise is usually called the challenge of systematicity. In particular, the so-called compositionality principle will be analyzed here, which establishes that the meaning of a sentence is determined by the meaning of its parts, a principle that according to the aforementioned authors cannot be accounted for through distributed (subsymbolic) representations. To address the point, we present an overview the state of Cognitive Science and Artificial Intelligence (AI) at the end of the 20th century, where the distinction between symbolic and subsymbolic approaches is used; and the development of both disciplines during the first decades of the 21st century is analyzed. It is concluded that the statistical tools adopted by the field of Machine Learning maintain characteristics that allow these techniques to be divided through the symbolic/subsymbolic distinction, so that the arguments of Fodor and Pylyshyn can in principle be applied to these techniques. The consequences of this would be related to the so-called problem of epistemic opacity.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno