Ayuda
Ir al contenido

Dialnet


Sistema de auditoría automática para la exploración endoscópica del estómago con Inteligencia Artificial – Gastro UNAL: Gastroendoscopy UNit for Automatic Labeling

    1. [1] Universidad Nacional de Colombia

      Universidad Nacional de Colombia

      Colombia

  • Localización: Revista colombiana de Gastroenterología, ISSN-e 2500-7440, ISSN 0120-9957, Vol. 39, Nº. 2, 2024 (Ejemplar dedicado a: April - June), págs. 133-145
  • Idioma: español
  • Títulos paralelos:
    • Automatic Auditing System for Endoscopic Exploration of the Stomach with Artificial Intelligence-Gastro UNAL: Gastroendoscopy UNit for Automatic Labeling
  • Enlaces
  • Resumen
    • español

      Introducción: la endoscopia digestiva alta es el método estándar para diagnosticar el cáncer gástrico en etapas tempranas. Sin embargo, su precisión puede verse afectada por la variabilidad en su realización, y se estiman hasta 20% de tumores no detectados. En Colombia, la mayoría de los diagnósticos se realizan en etapas avanzadas, lo que agrava el problema. Para abordar la variabilidad, se han propuesto protocolos con el fin de asegurar la observación completa de áreas propensas a lesiones premalignas.

      Objetivo: construir y validar un sistema de auditoría automática para endoscopias usando técnicas de inteligencia artificial.

      Metodología: en este estudio, 96 pacientes de un hospital universitario se sometieron a endoscopias documentadas en video, abarcando 22 estaciones reorganizadas para minimizar solapamientos y mejorar la identificación de 13 regiones gástricas clave. Se utilizó una red convolucional avanzada para procesar las imágenes, extrayendo características visuales, lo que facilitó el entrenamiento de la inteligencia artificial en la clasificación de estas áreas.

      Resultados: el modelo, llamado Gastro UNAL, fue entrenado y validado con imágenes de 67 pacientes (70% de los casos) y probado con 29 pacientes distintos (30% de los casos), con lo que alcanzó una sensibilidad promedio del 85,5% y una especificidad del 98,8% en la detección de las 13 regiones gástricas.

      Conclusiones: la eficacia del modelo sugiere su potencial para asegurar la calidad y precisión de las endoscopias. Este enfoque podría confirmar las regiones evaluadas, alertando puntos ciegos en la exploración a los endoscopistas con menos experiencia o en entrenamiento, de tal forma que se aumente la calidad de estos procedimientos.

    • English

      Introduction: Upper endoscopy is the standard method for diagnosing early-stage gastric cancer. However, according to estimates, up to 20% of tumors are not detected, and their accuracy may be affected by the variability in their performance. In Colombia, most diagnoses take place in advanced stages, which aggravates the problem. Protocols have been proposed to ensure the complete observation of areas prone to premalignant lesions to address variability.

      Objective: To build and validate an automatic audit system for endoscopies using artificial intelligence techniques.

      Methodology: In this study, 96 patients from a teaching hospital underwent video-documented endoscopies, spanning 22 stations rearranged to minimize overlaps and improve the identification of 13 key gastric regions. An advanced convolutional network was used to process the images, extracting visual characteristics, which facilitated the training of artificial intelligence in the classification of these areas.

      Results: the model, called  Gastro UNAL, was trained and validated with images of 67 patients (70% of cases) and tested with 29 different patients (30% of cases), which reached an average sensitivity of 85,5% and a specificity of 98,8% in detecting the 13 gastric regions.

      Conclusions: The effectiveness of the model suggests its potential to ensure the quality and accuracy of endoscopies. This approach could confirm the regions evaluated, alerting less experienced or trained endoscopists about blind spots in the examinations, thus, increasing the quality of these procedures.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno