Veuillez utiliser cette adresse pour citer ce document : http://dspace1.univ-tlemcen.dz/handle/112/10682
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorDERKAOUI, Amina-
dc.contributor.authorDERKAOUI, Soumia-
dc.date.accessioned2017-10-19T10:53:32Z-
dc.date.available2017-10-19T10:53:32Z-
dc.date.issued2017-09-19-
dc.identifier.urihttp://dspace.univ-tlemcen.dz/handle/112/10682-
dc.description.abstractLes méthodes ensemblistes (ou d’agrégation) pour les algorithmes d’apprentissage statistique (en anglais: ensemble learning) sont basées sur l’idée de combiner les prédictions de plusieurs prédicteurs (ou classifieurs) pour une meilleure généralisation et pour compenser les défauts éventuels de prédicteurs individuels. En général, on distingue deux familles de méthodes de ce type : -Méthodes parallèles (Bagging, Forest aléatoires) ou le principe est de faire la moyenne de plusieurs prédictions en espérant un meilleur résultat suite à la réduction de variance de l’éstimateur moyenne. -Méthodes séquentiels (Boosting) ou les paramètres sont itérativement adaptés pour produire un meilleur mélange. Dans notre projet de fin d’étude nous avons confirmé qu’un ensemble de classifieurs permet de réduire le nombre d’exemples qui seraient mal classés par un prédicteur unique si ses membres commettent des erreurs différentes. Les performances obtenues seront comparées en utilisant des critères comme le taux de classification, la sensibilité et la spécificitéen_US
dc.language.isofren_US
dc.subjectensemble de classifieur, bagging, boosting, forêts aléatoiresen_US
dc.subjectbases de données, apprentissage automatiqueen_US
dc.titleETUDE COMPARATIVE DES METHODES ENSEMBLISTES DE CLASSIFICATION DES DONNES MEDICALESen_US
dc.typeThesisen_US
Collection(s) :Master en Génie Biomedical

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Ms.EBM.Derkaoui+Derkaoui.pdf4,66 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.