Derkaoui, AminaDerkaoui, Soumia2017-10-192017-10-192017-09-19https://dspace.univ-tlemcen.dz/handle/112/10682Les méthodes ensemblistes (ou d’agrégation) pour les algorithmes d’apprentissage statistique (en anglais: ensemble learning) sont basées sur l’idée de combiner les prédictions de plusieurs prédicteurs (ou classifieurs) pour une meilleure généralisation et pour compenser les défauts éventuels de prédicteurs individuels. En général, on distingue deux familles de méthodes de ce type : -Méthodes parallèles (Bagging, Forest aléatoires) ou le principe est de faire la moyenne de plusieurs prédictions en espérant un meilleur résultat suite à la réduction de variance de l’éstimateur moyenne. -Méthodes séquentiels (Boosting) ou les paramètres sont itérativement adaptés pour produire un meilleur mélange. Dans notre projet de fin d’étude nous avons confirmé qu’un ensemble de classifieurs permet de réduire le nombre d’exemples qui seraient mal classés par un prédicteur unique si ses membres commettent des erreurs différentes. Les performances obtenues seront comparées en utilisant des critères comme le taux de classification, la sensibilité et la spécificitéfrensemble de classifieur, bagging, boosting, forêts aléatoiresbases de données, apprentissage automatiqueETUDE COMPARATIVE DES METHODES ENSEMBLISTES DE CLASSIFICATION DES DONNES MEDICALESThesis