Ayuda
Ir al contenido

Dialnet


Intermediate Task Fine-Tuning in Cancer Classification

    1. [1] Universidad Tecnologica Nacional Facultad Regional Córdoba, Argentina
  • Localización: Journal of Computer Science and Technology, ISSN-e 1666-6038, Vol. 23, Nº. 2, 2023
  • Idioma: inglés
  • Títulos paralelos:
    • Clasificación de Cáncer mediante Transferencia de Conocimiento con Tarea Intermedia
  • Enlaces
  • Resumen
    • español

      Reducir la cantidad de datos etiquetados necesarios para entrenar modelos predictivos es uno de los principales desafíos para la aplicación de la inteligencia artificial en patología digital. En este trabajo se propone un método para mejorar la capacidad de predicción de redes neuronales profundas entrenadas con cantidades limitadas de imágenes de patología digital. El método es un proceso de transfer learning de dos etapas, donde se utiliza un modelo intermedio como puente entre un modelo preentrenado con ImageNet y un modelo final de clasificación de cáncer. El modelo intermedio es ajustado con un dataset de más de 4.000.000 de imágenes débilmente etiquetadas con datos clínicos extraídos del programa TCGA. El modelo obtenido a través del método propuesto mejora significativamente los resultados de un modelo ajustado con el proceso tradicional de transfer learning.

    • English

      Reducing the amount of annotated data required to train predictive models is one of the main challenges in applying artificial intelligence to histopathology.

      In this paper, we propose a method to enhance the performance of deep learning models trained with limited data in the field of digital pathology. The method relies on a two-stage transfer learning process, where an intermediate model serves as a bridge between a pre-trained model on ImageNet and the final cancer classification model. The intermediate model is fine-tuned with a dataset of over 4,000,000 images weakly labeled with clinical data extracted from TCGA program. The model obtained through the proposed method significantly outperforms a model trained with a traditional transfer learning process.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno