ETUDE COMPARATIVE DES METHODES ENSEMBLISTES DE CLASSIFICATION DES DONNES MEDICALES
Loading...
Date
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
Les méthodes ensemblistes (ou d’agrégation) pour les algorithmes d’apprentissage
statistique (en anglais: ensemble learning) sont basées sur l’idée de combiner les
prédictions de plusieurs prédicteurs (ou classifieurs) pour une meilleure généralisation
et pour compenser les défauts éventuels de prédicteurs individuels.
En général, on distingue deux familles de méthodes de ce type :
-Méthodes parallèles (Bagging, Forest aléatoires) ou le principe est de faire la
moyenne de plusieurs prédictions en espérant un meilleur résultat suite à la réduction
de variance de l’éstimateur moyenne.
-Méthodes séquentiels (Boosting) ou les paramètres sont itérativement adaptés
pour produire un meilleur mélange.
Dans notre projet de fin d’étude nous avons confirmé qu’un ensemble de
classifieurs permet de réduire le nombre d’exemples qui seraient mal classés par un
prédicteur unique si ses membres commettent des erreurs différentes. Les
performances obtenues seront comparées en utilisant des critères comme le taux de
classification, la sensibilité et la spécificité