Veuillez utiliser cette adresse pour citer ce document : http://dspace1.univ-tlemcen.dz/handle/112/18591
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorBRIKI, Mohamed Elamine-
dc.date.accessioned2022-06-14T11:24:53Z-
dc.date.available2022-06-14T11:24:53Z-
dc.date.issued2020-11-28-
dc.identifier.urihttp://dspace.univ-tlemcen.dz/handle/112/18591-
dc.description.abstractLes réseaux de neurones convolutifs (CNNs) sont les méthodes de pointe pour l’analyse d’images, ils ont été appliqués à différentes tâches avec une grande var- iété d’architectures et ils ont réalisé des résultats exceptionnels. Les méthodes basées sur CNN sont généralement une approche à appliquer lorsqu’il s’agit de problèmes complexes avec un jeu de données d’images volumineux, grace à leur capacité à apprendre des représentations profondes et abstraites (deep features) sur l’image. Dans ce projet de fin d’études, nous avons présenté une nouvelle approche basée sur le CNN pour la classification du cancer du sein sur la base de données INbreast pour laquelle nous avons utilisé un VGG-16 pré-entrainé, nous avons implémenté notre méthode avec Python sur le service de cloud computing Google "Colab". Delà, nous avons pu exécuter le modèle VGG-16 et extraire effi- cacement les bonnes caractéristiques (features). Les résultats obtenus atteignent un taux de classification de 97% avec SVM ce qui est comparable aux méthodes de pointe de classification du cancer du sein, en particulier celles effectuées sur INbreasten_US
dc.language.isofren_US
dc.subjectRéseaux de neurones convolutifs, caractéristiques profondes et abstraitesen_US
dc.subjectVGG- 16, Transfer learning, classification, base de données INbreasten_US
dc.titleMedical images classification based on deep features extraction exploiting transfer learningen_US
dc.typeThesisen_US
Collection(s) :Master en Génie Biomedical

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
MS.GBM.Briki.pdf4 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.