Veuillez utiliser cette adresse pour citer ce document : http://dspace1.univ-tlemcen.dz/handle/112/22647
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorKermouni Serradj, Nadia-
dc.date.accessioned2024-06-02T13:51:35Z-
dc.date.available2024-06-02T13:51:35Z-
dc.date.issued2023-10-05-
dc.identifier.urihttp://dspace1.univ-tlemcen.dz/handle/112/22647-
dc.description.abstractCette thèse propose différentes approches d'analyse des images médicales basées les outils multifractals. L'analyse consiste à étudier les structures de l'image en calculant les mesures multifractales décrites par l'exposant de Hölder. Ces exposants sont ensuite utilisés pour construire le spectre multifractal. Enfin, différentes caractéristiques sont extraites de ce spectre et utilisés pour détecter les singularités et classer les images médicales. Ces approches sont appliquées pour l'analyse des images mammographiques et des images rétiniennes. Pour les images mammographiques, nous avons proposé une approche pour la détection des microcalcifications (MCs) qui sont les principaux signes de cellules précancéreuses, en prenant en considération les cas des tissus denses ou les MCs sont masquées par la densité mammaire. Le système comprend une étape de prétraitement basée sur le filtrage, la réduction de la densité mammaire, l'amélioration de contraste et le rehaussement de l'intensité des MCs en calculant les exposants de singularité locale à l'aide des mesures multifractales (l'image-α) qui décrivent les distributions des intensités dans les voisinages des pixels locaux. Cette étape a été évaluée en termes de PSNR et comparée avec d'autres méthodes de prétraitement. L'étape suivante consiste à identifier les ROIs normales et anormales, à calculer leur spectre multifractal et à extraire les caractéristiques multifractales pour les utiliser dans la classification. D'autre part, le taux de détection des MCs par l'approche proposée a été évalué en termes de sensibilité. En ce qui concerne les images rétiniennes, nous avons proposé une approche basée sur les attributs multifractals permettant de classer les images en fond d'oeil normal ou pathologique en prenant en considération plusieurs pathologies. Initialement, le fond noir de l'image est supprimé afin de réduire le temps de calcul. Puis, l'analyse multifractale est effectuée pour extraire les caractéristiques multifractales du spectre multifractal utilisées pour la classification. Aucune étape d'amélioration de contraste ou de segmentation n'a été effectuée. Pour les deux applications, le spectre multifractal a été calculé directement par l'approche statistique en utilisant la méthode des dimensions fractales généralisées. Les paramètres multifractals extraits du spectre montrent leur pouvoir dans la discrimination des cas pathologiques, qui présentent des singularités par rapport aux cas sains. Ils sont combinés avec les caractéristiques de la matrice de cooccurrence pour améliorer la précision de classification. Trois classificateurs sont testés et évalués en termes de sensibilité, spécificité et précision, dont le SVM a fourni les meilleures performances. Dans l'ensemble, les résultats expérimentaux sont très satisfaisants et surpassent les méthodes proposées dans la littérature. Ils démontrent que les outils multifractals sont de puissants descripteurs pouvant être utilisés efficacement pour la classification et la détection des anomalies dans les images médicales.en_US
dc.language.isofren_US
dc.publisherUniversity of Tlemcenen_US
dc.subjectGéométrie fractale, Analyse multifractale, Exposant de Hölder, Spectre multifractal, Images médicales, Mammographie, Microcalcifications, Images rétiniennes, Classificationen_US
dc.titleLa géométrie fractale dans le traitement et l’analyse des images médicalesen_US
dc.typeThesisen_US
Collection(s) :Doctorat en GBM

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
La_géométrie_fractale_dans_le_traitement_et_l’analyse_des_images_médicales.pdf12,06 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.