Privacy Preserving Deep Learning in Medical Data
| dc.contributor.author | Benladghem, Rafika | |
| dc.date.accessioned | 2025-12-04T10:07:04Z | |
| dc.date.available | 2025-12-04T10:07:04Z | |
| dc.date.issued | 2025-07-22 | |
| dc.description.abstract | L'Apprentissage Profond a démontré un potentiel transformateur dans de nombreux domaines, mais son application à des données sensibles, notamment dans le secteur de la santé, est semée de risques significatifs pour la vie privée. L'Apprentissage Profond Différentiellement Privé offre un cadre rigoureux pour atténuer ces risques en fournissant des garanties formelles de confidentialité. Cependant, l'Apprentissage Profond Différentiellement Privé introduit intrinsèquement un compromis fondamental entre Vie Privé et Utilité (P-U), où l'amélioration de la confidentialité dégrade souvent les performances du modèle. Cette thèse aborde le défi critique de l'optimisation de ce compromis P-U afin de rendre l'Apprentissage Profond Différentiellement Privé pratique et efficace pour un déploiement en conditions réelles. Cette recherche présente une investigation approfondie des méthodologies permettant de naviguer et d'améliorer l'équilibre P-U dans les systèmes de l’Apprentissage Profond Différentiellement Privé . Nous établissons d'abord des performances de référence réalistes pour l'Apprentissage Profond Différentiellement Privé sur des jeux de données médicales grâce à un réglage méticuleux des hyperparamètres, démontrant qu'une utilité compétitive est réalisable même sous contraintes de confidentialité. Pour gérer systématiquement le compromis P-U, un cadre Pareto-optimal est proposé, permettant une sélection d'architecture fondée sur des principes et une prise de décision éclairée. Reconnaissant la charge de calcul liée au réglage, nous introduisons en outre une analyse comparative de stratégies efficaces d'Optimisation des Hyperparamètres (HPO), incluant une application novatrice de l'Algorithme des Chauves souris, pour identifier efficacement des configurationsde l'Apprentissage Profond Différentiellement Privé de haute qualité. De plus, ce travail reconnaît que les jeux de données médicales du monde réel sont souvent déséquilibrés, ce qui peut interagir avec les mécanismes du L'Apprentissage Profond Différentiellement Privé . Nous analysons ces interactions, en considérant leurs implications sur les performances des classes sous-représentées, et explorons le potentiel de l'augmentation de données comme technique pour améliorer l'utilité du L'Apprentissage Profond Différentiellement Privé en imagerie médicale, révélant son efficacité dépendante du niveau de confidentialité. Collectivement, les contributions de cette thèse fournissent une série d'outils validés et de connaissances approfondies, allant de l'évaluation fondamentale des performances et de la gestion des compromis par l'analyse de Pareto, jusqu'à l'optimisation efficace des hyperparamètres (HPO). Ces avancées visent à combler le fossé entre la promesse théorique du L'Apprentissage Profond Différentiellement Privé et son application pratique à haute utilité dans des domaines sensibles, favorisant ainsi le développement d'une IA plus digne de confiance et efficace. | |
| dc.identifier.uri | https://dspace.univ-tlemcen.dz/handle/112/25374 | |
| dc.language.iso | fr | |
| dc.publisher | University of Tlemcen | |
| dc.subject | Confidentialité Différentielle | |
| dc.subject | Apprentissage Profond | |
| dc.subject | Apprentissage Automatique Préservant la Confidentialité | |
| dc.subject | Compromis Confidentialité-Utilité | |
| dc.subject | Équité | |
| dc.subject | Déséquilibre de Classes | |
| dc.subject | Nexus Confidentialité-Utilité-Équité | |
| dc.subject | Optimalité de Pareto | |
| dc.subject | Optimisation des Hyperparamètres | |
| dc.subject | Algorithme des Chauves-souris | |
| dc.subject | Analyse de Données Médicales | |
| dc.title | Privacy Preserving Deep Learning in Medical Data | |
| dc.type | Thesis |