Ayuda
Ir al contenido

Dialnet


Resumen de Apprentissage automatique fédéré pour l’IA collaborative dans le secteur de la santé

Melek Önen, Francesco Cremonesi, Marco Lorenzi

  • English

    Federated learning (FL) represents today a key working paradigm to empower AI research while guarantying data governance and confidentiality through decentralized learning applications. FL enables different clients to jointly learn a global model without sharing their respective data, and is therefore particularly suited in AI applications with sensitive data, such as in healthcare.

    Nevertheless, the use of FL in the medical domain is currently at its infancy, with only a handful of pioneering applications demonstrated in real world conditions. One of the critical aspects about the application of FL in real world conditions concerns the aspects of security and safety. Ill intentioned parties may interfere during the federated learning procedure to degrade/modify models performances, or retrieve information about other clients’ data. There is currently a greyzone of potential privacy threats associated to the development and exploitation of complex AI methods to sensitive data. These threats arise anytime we can interfere with the model training or exploitation processes, to gather more information about the data used to generate such a model.

    In this work, we provide an overview of current research and challenges on the security and safety of federated learning, with special focus on healthcare application.

  • français

    L’apprentissage fédéré ou federated learning (FL) représente aujourd’hui un paradigme de travail essentiel pour renforcer la recherche en IA tout en garantissant la gouvernance et la confidentialité des données grâce à des applications d’apprentissage décentralisées. L’apprentissage fédéré permet à différents clients d’apprendre conjointement un modèle global sans partager leurs données respectives, et est donc particulièrement adapté aux applications d’IA contenant des données sensibles, comme dans le domaine de la santé.

    Néanmoins, l’utilisation de l’apprentissage fédéré dans le domaine médical en est actuellement à ses débuts, avec seulement une poignée d’applications pionnières démontrées dans des conditions réelles. L’un des aspects critiques de son application dans des conditions réelles concerne les aspects de sécurité et de sûreté. Des parties mal intentionnées peuvent intervenir pendant la procédure pour dégrader/modifier les performances des modèles ou récupérer des informations sur les données d’autres clients. Il existe actuellement une zone grise de menaces potentielles pour la vie privée associées au développement et à l’exploitation de méthodes complexes d’IA sur des données sensibles. Ces menaces apparaissent chaque fois que nous pouvons interférer avec les processus d’apprentissage ou d’exploitation du modèle, afin de recueillir plus d’informations sur les données utilisées pour générer un tel modèle.

    Dans ce travail, nous fournissons une vue d’ensemble des recherches et des défis actuels sur la sécurité et la sûreté de l’apprentissage fédéré, avec un accent particulier sur les applications de soins de santé.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus