Ayuda
Ir al contenido

Dialnet


Resumen de El análisis inteligente de datos mediante el uso de técnicas de Softcomputing

Wilber Ortiz Aguilar, William Andrés Rodríguez López, Daniel Douglas Iturburu Salvador, Elsy Rodríguez Revelo, Yudenalbis La O Mendoza

  • español

    Softcomputing utiliza la mente humana como modelo a seguir y al mismo tiempo tiene como objetivo formalizar los procesos cognitivos humanos que se utilizan para llevar a cabo diferentes tareas diarias. Para comprender la imperfección de los datos y describir el uso simbiótico de las disciplinas computacionales emergentes, se acuñó el término Softcomputing en los años 90. Las tecnologías bajo este término son tolerantes con la imprecisión, la incertidumbre y la verdad parcial. Bajo la explotación de esta tolerancia subyace la notable capacidad del ser humano para descifrar la letra olvidada, para comprender los matices del lenguaje natural, razón por la cual esta tecnología se utiliza a menudo en el análisis inteligente de datos. El análisis inteligente de datos se define como un proceso complejo de descubrimiento de información o conocimiento útil de los datos. En otras palabras, el análisis inteligente de datos es un proceso no trivial de identificación válida, novedosa y potencialmente útil de los patrones comprensibles en los datos. Este complejo proceso está compuesto por una serie de fases interactivas e iterativas donde el usuario debe tomar decisiones adecuadas a lo largo del proceso. Por ello, en este artículo el objetivo es proponer un conjunto de técnicas enmarcadas dentro del Análisis Inteligente de Datos, con capacidad para tratar datos imperfectos y datos de baja calidad.

  • English

    Softcomputing uses the human mind as a role model and at the same time aims to formalize the human cognitive processes that are used to carry out different daily tasks. To understand the imperfection of the data and describe the symbiotic use of emerging computational disciplines, the term Softcomputing was coined in the 90s. Technologies under this term are tolerant of imprecision, uncertainty and partial truth. Under the exploitation of this tolerance underlies the remarkable ability of humans to decipher the neglected letter, to understand the nuances of natural language, which is why this technology is often used in the intelligent analysis of data. Intelligent Data Analysis is defined as a complex process of discovery of information or useful knowledge from the data. In other words, Intelligent Data Analysis is a non-trivial process of valid, novel and potentially useful identification of the comprehensible patterns in the data. This complex process is composed of a series of interactive and iterative phases where the user must make appropriate decisions throughout the process. For this reason, in this article the objective is to propose a set of techniques framed within the Intelligent Data Analysis, with the ability to deal with imperfect data and data of low quality.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus