Analyse comparative des performances pour la classification de textes « RNN vs Transformers »
Loading...
Date
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
University of Tlemcen
Abstract
Ce travail se concentre sur l’application de deux approches différentes pour la classification
de texte ; à savoir les Réseaux de Neurones Récurrents (RNN), en particulier les
architectures LSTM, ainsi que les modèles à attention tels que BERT. L’objectif est d’évaluer
la performance de ces approches dans divers scénarios de classification de texte, en
tenant compte de plusieurs facteurs tels que la taille du jeu de données, la complexité
de la tâche, etc. Pour cela, nous avons commencé par une revue des algorithmes d’apprentissage
traditionnels, en explorant en détail, les RNN et les modèles Transformer. Par
la suite, nous avons effectué une analyse approfondie des performances et des résultats
obtenus, ainsi qu’une comparaison des performances des deux approches. A la fin, nous
avons souligné l’importance de ces méthodes dans le domaine du traitement automatique
du langage naturel où nous avons proposé des orientations et recommandations pour des
travaux futurs visant à améliorer les performances des systèmes de classification de texte.