Ayuda
Ir al contenido

Dialnet


Resumen de Modelos algorítmicos y fact-checking automatizado.: Revisión sistemática de la literatura

David García-Marín

  • español

    El fact-checking automatizado consiste en la comprobación automática de la veracidad de una información aplicando las tecnologías de inteligencia artificial existentes para clasificarla en alguna de las categorías comúnmente usadas por los fact-checkershumanos (verdadero, engañoso, falso, etc.). Este trabajo presenta el primer análisis bibliométrico en castellano -de tipo cuantitativo- sobre la evolución y los países de procedencia de la investigación sobre esta práctica. Asimismo, pretende analizar el nivel de precisión de las soluciones algorítmicas y el impacto de los trabajos publicados, utilizando para ello tratamientos estadísticos descriptivos e inferenciales (pruebas de chi cuadrado y test de Kruskal-Wallis). De acuerdo con nuestros resultados, en los últimos tres años se concentra el mayor volumen de aportaciones, que proceden mayoritariamente de la región asiática y Estados Unidos. Predominan los trabajos que proponen métodos o sistemas algorítmicos integrados. Son mayoritarios los estudios sobre modelos lingüísticos, que presentan aún varias limitaciones y una efectividad inferior a la media. Se observa una reducida atención hacia los modelos basados en el análisis de imágenes, y resulta prácticamente nula la presencia de algoritmos de detección de audios falsos. En línea con trabajos anteriores, nuestro estudio concluye que no existen diferencias estadísticamente significativas en el nivel de precisión de los diversos modelos algorítmicos propuestos, a pesar de sus diferentes grados de complejidad técnica

  • English

    Automated fact-checking consists of automatically determining the veracity of a claim by applying existing artificial intelligence technologies to classify it into one of the categories commonly used by human fact-checkers (true, misleading, false, etc.). This paper presents the first systematic literature review in Spanish on the evolution of research on this topic. It also aims to analyze the level of accuracy of algorithmic solutions and the impact of published work, using descriptive and inferential statistical treatments (chi-square and Kruskal-Wallis tests). According to our results, the highest volume of contributions was concentrated in the last three years, mainly from the Asian region and United States. Papers proposing integrated algorithmic methods or systems predominate. Studies on linguistic models, which still have several limitations and below-average effectiveness, are in the majority. There is little attention to models based on image analysis, and the presence of fake audio detection algorithms is practically nonexistent. In line with previous work, our study concludes that there are no statistically significant differences in the level of accuracy of the diverse algorithmic models proposed, despite their different degrees of technical complexity


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus