Projet

Apprentissage automatique sécurisé, sûr et équitable pour les applications en santé

Coordination

Responsable(s) coordinateur(s) du projet : Jamal Atif et Aurélien Bellet

Établissement coordinateur :  Université Paris Sciences & Lettres (PSL)

Mots-clés

Apprentissage automatique, données de santé massives, confiance, cybersécurité, apprentissage fédéré, confidentialité, robustesse, équité

Résumé

Le secteur de la santé (public et privé) génère une grande quantité de données provenant de sources aussi diverses que les dossiers médicaux électroniques, les techniques d’imagerie avancées, le séquençage à haut débit, les dispositifs portables et les données de santé publique. L’exploitation de ces données par des algorithmes sophistiqués d’apprentissage automatique a le potentiel de transformer la pratique du soin en permettant le développement de traitements, d’interventions et de politiques publiques plus efficaces et davantage personnalisés, et d’améliorer la prestation des soins de santé et au bout du compte le bien-être de la population. Toutefois, le caractère hautement sensible des données de santé, les risques de cybersécurité, les biais dans les données et le manque de robustesse des algorithmes d’apprentissage automatique constituent autant de facteurs qui empêchent actuellement de tirer pleinement bénéfice des avancées récentes en intelligence artificielle.

Pour s’affranchir de cet état de fait, il est essentiel de surmonter les défis éthiques et juridiques, de sécurité et de robustesse. Ce projet vise à développer de nouveaux algorithmes d’apprentissage automatique qui prennent en compte les caractéristiques multi-échelles et hétérogènes des données de santé, tout en garantissant la confidentialité, la robustesse contre les attaques adverses et les changements de dynamiques des données et modèles, et l’équité pour les populations sous-représentées.

En s’attaquant à ces obstacles, l’équipe du projet espère libérer les verrous qui freinent le déploiement de solutions innovantes en santé numérique. Plus précisément, SSF-ML-DH se concentrera sur les défis suivants :

  • l’apprentissage respectueux de la vie privée en s’appuyant sur les techniques de confidentialité différentielle et de chiffrement homomorphe ;
  • l’apprentissage fédéré en établissant des compromis entre précision et confidentialité ;
  • la robustesse aux attaques adverses et changements de dynamiques des données et des modèles ;
  • le « désapprentissage » automatique pour implémenter le droit à l’oubli.

Le projet réunit un consortium inédit composé de spécialistes de l’apprentissage automatique, de la cybersécurité, des statistiques, et des applications médicales. En outre, il est positionné entre deux PEPR (Cybersécurité et Santé Numérique), ce qui lui confère un caractère particulier de diffusion des connaissances et des pratiques entre des communautés de recherche qui n’avaient jusqu’à présent que peu de place pour interagir.

Partenaires
Unité Tutelles
LAMSADE – UMR7243 CNRS, Université Paris-Dauphine-Paris Sciences & Lettres (PSL),
LaTIM – U 1101 – Eq Cyber Health Inserm, Université de Bretagne Occidentale, IMT Atlantique

CHU Brest partenaire

Inria Sophia Antipolis, Eq PreMeDICaL Inria, Université de Montpellier
CEA LIST – Dpt DIN et DSCIN CEA, Université Paris-Saclay
DI-ENS – UMR 8548 CNRS, ENS, PSL, Inria
Inria Sophia Antipolis, Eq EPIONE Inria, Université Côte d’Azur
CITI Lab – Eq Inria Privatics INSA, Inria Grenoble, Inria Lyon, Université de Lyon