Privacy Preserving Deep Learning in Medical Data
Loading...
Date
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
University of Tlemcen
Abstract
L'Apprentissage Profond a démontré un potentiel transformateur dans de nombreux domaines,
mais son application à des données sensibles, notamment dans le secteur de la santé, est semée
de risques significatifs pour la vie privée. L'Apprentissage Profond Différentiellement Privé
offre un cadre rigoureux pour atténuer ces risques en fournissant des garanties formelles de
confidentialité. Cependant, l'Apprentissage Profond Différentiellement Privé introduit
intrinsèquement un compromis fondamental entre Vie Privé et Utilité (P-U), où l'amélioration
de la confidentialité dégrade souvent les performances du modèle. Cette thèse aborde le défi
critique de l'optimisation de ce compromis P-U afin de rendre l'Apprentissage Profond
Différentiellement Privé pratique et efficace pour un déploiement en conditions réelles. Cette
recherche présente une investigation approfondie des méthodologies permettant de naviguer et
d'améliorer l'équilibre P-U dans les systèmes de l’Apprentissage Profond Différentiellement
Privé . Nous établissons d'abord des performances de référence réalistes pour l'Apprentissage
Profond Différentiellement Privé sur des jeux de données médicales grâce à un réglage
méticuleux des hyperparamètres, démontrant qu'une utilité compétitive est réalisable même
sous contraintes de confidentialité. Pour gérer systématiquement le compromis P-U, un cadre
Pareto-optimal est proposé, permettant une sélection d'architecture fondée sur des principes et
une prise de décision éclairée. Reconnaissant la charge de calcul liée au réglage, nous
introduisons en outre une analyse comparative de stratégies efficaces d'Optimisation des
Hyperparamètres (HPO), incluant une application novatrice de l'Algorithme des Chauves souris, pour identifier efficacement des configurationsde l'Apprentissage Profond
Différentiellement Privé de haute qualité. De plus, ce travail reconnaît que les jeux de données
médicales du monde réel sont souvent déséquilibrés, ce qui peut interagir avec les mécanismes
du L'Apprentissage Profond Différentiellement Privé . Nous analysons ces interactions, en
considérant leurs implications sur les performances des classes sous-représentées, et explorons
le potentiel de l'augmentation de données comme technique pour améliorer l'utilité du
L'Apprentissage Profond Différentiellement Privé en imagerie médicale, révélant son efficacité
dépendante du niveau de confidentialité. Collectivement, les contributions de cette thèse
fournissent une série d'outils validés et de connaissances approfondies, allant de l'évaluation
fondamentale des performances et de la gestion des compromis par l'analyse de Pareto, jusqu'à
l'optimisation efficace des hyperparamètres (HPO). Ces avancées visent à combler le fossé entre
la promesse théorique du L'Apprentissage Profond Différentiellement Privé et son application
pratique à haute utilité dans des domaines sensibles, favorisant ainsi le développement d'une IA
plus digne de confiance et efficace.
Description
Keywords
Confidentialité Différentielle, Apprentissage Profond, Apprentissage Automatique Préservant la Confidentialité, Compromis Confidentialité-Utilité, Équité, Déséquilibre de Classes, Nexus Confidentialité-Utilité-Équité, Optimalité de Pareto, Optimisation des Hyperparamètres, Algorithme des Chauves-souris, Analyse de Données Médicales