Ayuda
Ir al contenido

Dialnet


Apprentissage automatique fédéré pour l’IA collaborative dans le secteur de la santé

    1. [1] Informaticien Data scientists, EURECOM, France
    2. [2] Informaticien Data scientists, Groupe de recherche Epione, Inria Sophia Antipolis, France
  • Localización: Revue internationale de droit économique, ISSN 1010-8831, Vol 36, Nº. 3, 2022, págs. 95-113
  • Idioma: francés
  • Títulos paralelos:
    • Federated machine learning for collaborative AI in healthcare
  • Texto completo no disponible (Saber más ...)
  • Resumen
    • English

      Federated learning (FL) represents today a key working paradigm to empower AI research while guarantying data governance and confidentiality through decentralized learning applications. FL enables different clients to jointly learn a global model without sharing their respective data, and is therefore particularly suited in AI applications with sensitive data, such as in healthcare.

      Nevertheless, the use of FL in the medical domain is currently at its infancy, with only a handful of pioneering applications demonstrated in real world conditions. One of the critical aspects about the application of FL in real world conditions concerns the aspects of security and safety. Ill intentioned parties may interfere during the federated learning procedure to degrade/modify models performances, or retrieve information about other clients’ data. There is currently a greyzone of potential privacy threats associated to the development and exploitation of complex AI methods to sensitive data. These threats arise anytime we can interfere with the model training or exploitation processes, to gather more information about the data used to generate such a model.

      In this work, we provide an overview of current research and challenges on the security and safety of federated learning, with special focus on healthcare application.

    • français

      L’apprentissage fédéré ou federated learning (FL) représente aujourd’hui un paradigme de travail essentiel pour renforcer la recherche en IA tout en garantissant la gouvernance et la confidentialité des données grâce à des applications d’apprentissage décentralisées. L’apprentissage fédéré permet à différents clients d’apprendre conjointement un modèle global sans partager leurs données respectives, et est donc particulièrement adapté aux applications d’IA contenant des données sensibles, comme dans le domaine de la santé.

      Néanmoins, l’utilisation de l’apprentissage fédéré dans le domaine médical en est actuellement à ses débuts, avec seulement une poignée d’applications pionnières démontrées dans des conditions réelles. L’un des aspects critiques de son application dans des conditions réelles concerne les aspects de sécurité et de sûreté. Des parties mal intentionnées peuvent intervenir pendant la procédure pour dégrader/modifier les performances des modèles ou récupérer des informations sur les données d’autres clients. Il existe actuellement une zone grise de menaces potentielles pour la vie privée associées au développement et à l’exploitation de méthodes complexes d’IA sur des données sensibles. Ces menaces apparaissent chaque fois que nous pouvons interférer avec les processus d’apprentissage ou d’exploitation du modèle, afin de recueillir plus d’informations sur les données utilisées pour générer un tel modèle.

      Dans ce travail, nous fournissons une vue d’ensemble des recherches et des défis actuels sur la sécurité et la sûreté de l’apprentissage fédéré, avec un accent particulier sur les applications de soins de santé.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno