Comparaison des techniques d’explicabilité pour des méthodes de classification supervisées sur des images mammographiques
Loading...
Date
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
University of Tlemcen
Abstract
Dans le contexte où les outils automatisés prennent une place de plus en plus importante dans le secteur médical, en particulier pour l’analyse d’images. Cependant, il reste essentiel que les décisions prises par ces systèmes soient compréhensibles et transparentes pour les professionnels de santé.
Ce mémoire se concentre sur la comparaison de différentes méthodes permettant d’expliquer et d’interpréter les résultats obtenus par des modèles de classification supervisée appliqués à des images de mammographies. L’objectif est de faciliter la compréhension des prédictions afin de mieux accompagner les médecins dans leur diagnostic.
Pour ce faire, des réseaux de neurones convolutifs ont été utilisés pour identifier la présence de cancer du sein à partir de la base de données ‘’Final-Final-RSNA-Breast-Cancer-Dataset ‘’. Plusieurs techniques d’explication, comme LIME, SHAP et Grad-CAM, ont été mises en oeuvre pour mettre en lumière les parties de l’image ayant le plus influencé la décision du modèle, rendant ainsi les résultats plus accessibles.
Les tests réalisés ont montré des performances solides, avec une précision de classification(accuracy) de 99,51 %, une perte faible lors de l’apprentissage, et une précision spécifique de 99,63%. Ces résultats, associés à des visualisations explicatives claires, démontrent l’intérêt d’intégrer ces méthodes d’interprétation dans les systèmes d’aide au diagnostic. Ce travail souligne l’importance de la transparence pour renforcer la confiance des utilisateurs et garantir une utilisation responsable et éthique des technologies dans le domaine de la santé.