Magister MID
Permanent URI for this collectionhttps://dspace.univ-tlemcen.dz/handle/112/145
Browse
Recent Submissions
Item Apprentissage en ligne pour le développement d’un classifieur de données médicales(University of Tlemcen, 2015-01-06) Gaouar, ImadCe travail consiste à étudier une méthodologie pour faire évoluer un classifieur flou en ligne, qui permet aux données d’être traitées en temps réel, en modifiant de manière récursive une base de règles floues sur une base par échantillon de flux de données. En outre, il montre comment cette méthode peut être améliorée et appliquée au domaine du diagnostic, pour déceler les arythmies cardiaques. La grande majorité des méthodes existantes, pour les diagnostics médicaux floues, nécessitent le traitement de données en mode hors ligne, comme un lot. Malheureusement, cela ne permet qu’un aperçu du domaine réel à analyser. Si de nouveaux enregistrements de données deviennent disponibles, ils exigent des calculs de coûts sensibles, en raison du fait que ré-apprendre est un processus itératif. eClass est relativement une nouvelle architecture pour l'évolution des systèmes à base de règles floues, qui surmonte ces problèmes. Nous estimons la précision du classifieur à 86.26% mais nous espérons l’améliorer d’ici peu.Cette étude a montré qu’eClass peut être efficacement utilisée pour le classement des arythmies cardiaques à partir d'échantillons numériques discrets. Les résultats indiquent que la précision du modèles eClass peut être encore améliorée. Enfin, le système peut extraire des règles lisibles par l'homme, qui pourraient permettre à des experts médicaux d’obtenir une meilleure compréhension d'un échantillon en cours d'analyse tout au long du processus de diagnostic traditionnel.This paper explores a methodology to evolve a fuzzy classifier online that allows data to be processed in real time by modifying recursively a fuzzy rule base on a per- sample data stream. In addition, it shows how this method can be improved and applied to the field of medical diagnosis, to identify cardiac arrhythmias. The vast majority of existing methods for fuzzy medical diagnostics require the processing of data in offline mode, as a batch. Unfortunately, it only allows a snapshot of the real domain analysis. If new data records become available they require cost sensitive calculations due to the fact that re-learning is an iterative process. eClass is a relatively new architecture for the development of systems based on fuzzy rules, which overcomes these problems. We estimate the accuracy of the classifier as 86.26 %, but we hope to improve soon.This study showed that eClass can be effectively used for the classification of cardiac arrhythmias from discrete digital samples. The results indicate that the accuracy of eClass models can be further improved. Finally, the system can extract readable rules who could allow medical experts to get a better understanding of a sample under analysis throughout the traditional diagnostic process.Item Proposition d’un Outil d’aide à l’évaluation des Stratégies de Coordination dans le fonctionnement d’un WEB-DSS : Application à une Gestion de production dynamique.(2014-02-18) Gaouar, AdilRésumé: Étant donné les diverses sources de données et les différents outils d’aide à la décision, la conception, la spécification et la mise en oeuvre d'un SIAD à base du Web, souvent dans un environnement distribué, est toujours un domaine de recherche en plein essor. L’objectif majeur de cette étude est de renforcer le travail des agents de production et de coordination par la mise en place d'un programme de gestion de temps et de priorité. L'outil à développer permettra de donner une analyse statistique des résultats obtenus en matière de temps (temps-improductifs, temps d’analyse, temps de recherche sur le WEB, temps-réels de production etc..). En effet, notre contribution est matérialisée par le recensement de toutes les stratégies possibles de coordination, en particulier celles qui sont suivies par l’agent coordinateur durant une session de travail, soit une prise de décision globale. Pour satisfaire cet objectif, nous avons enrichi le modèle proposé par une mémoire collective (MC). Cette mémoire permet de mentionner les adaptations apportées aux solutions tirées de la base des cas de l’agent coordinateur et elle permet à ce dernier de se procurer des solutions aux pannes, si elles existent au niveau de la MC. De plus, l’on évaluera grâce à l’outil développé chaque stratégie de l’agent de coordination par la mesure de certaines valeurs de temps. Six scénarios ont été testés sur l’application et montrent la faisabilité de l’approche. Summary: Due to various sources of data and Decision making tools, the design, specification and implementation of a Web based DSS in a distributed environment is a growing field of research. The main objective of this study is to enhance the performance of the production and coordination agents by developing a time and priorities management program. The tool being developed will make it possible to analyze statistically the results obtained based on time variables (unproductive time, time of analysis, search time on the WEB, real production time etc.). Indeed, our contribution is materialized by the identification of all possible strategies of coordination, in particular those which are followed by the coordinator agent during a work session, as decision-making. To satisfy this objective, we augmented the model suggested by a collective memory (CM). This memory makes it possible to mention the adaptations brought to the solutions drawn from the coordinator agent’s case-base to get solutions in case of breakdowns from the level of the CM. Moreover, we will evaluate using the developed tool, each coordination agent strategy by measuring certain characteristic times. Six scenarios have been tested using the application and helped to show the feasibility of this approach. .خلاصة: نظرا لتنوع مصادر المعلومات و اختلاف وسائل المساعدة على اتخاذ القرار, فان التصمیم, المواصفة و تنفیذ الأنظمة التفاعلیة لدعم القرار المبنیة على شبكة الانترنت, غالبا في بیئات موزعة, لا تزال مواضیع بحث ھامة و في تطور مستمر. الھدف الرئیسي لھذه الدراسة, ھو تدعیم عمل الوكلاء الإنتاج و التنسیق بوضع برنامج لتسییر الوقت و الأولویات. الوسیلة التي سنصممھا ستسمح لإعطاء دراسة إحصائیة للنتائج المحصل علیھا في ما یخص الوقت (الزمن غیر المفید, زمن التحلیل, زمن البحث عبر الانترنت, الوقت الفعلي, ....) في الواقع, فان مساھمتنا تتجسد في إحصاء كل الاستراتجیات التنسیق الممكنة و خاصة تلك المتتبعة من طرف الوكیل المنسق خلال دورة عمل, یعني خلال عملیة اتخاذ قرار إجمالیة. بغیة الوصول إلى ھذا الھدف, لقد قمنا بإثراء النموذج المقترح عن طریق إضافة ذاكرة جماعیة (ذ.ج). ھذه الذاكرة ستسمح لنا بذكر التحسینات المضافة للحلول المستخرجة من قاعدة الحالات الخاصة بالوكیل المنسق و كذلك تسمح لھ بالحصول على الحلول الملائمة المشاكل في حالة وجودھا في ھذه الذاكرة. بالإضافة إلى ذلك, سنقوم باستعمال ھذا البرنامج لتقییم كل إستراتیجیة خاصة بالوكیل المنسق و ذلك بحساب بعض الأزمنة الممیزة. ستة سیناریوھات اختبرت باستعمال ھذا البرنامج و سمحت بتحدید جدوى ھذه المناھج.Item Application de la classe des méthodes d’apprentissage statistique SVM(support vector machine) pour la reconnaissance des formes dans les images(University of Tlemcen, 2012) Benyahia, SouadDans ce mémoire, nous proposons une méthode de détection automatique de vertèbres dans les images à rayons-X par application de la méthodemachines a vecteurs de support (SVM).Leclassificateurproposé peut être intégréà un system d‟aide au diagnostic permettant aux radiologistes la sélection des régions vertèbres. Le processus de traitement passe par deux étapes consistant à l‟extraction de caractéristiques et la classification. La première étape consiste à caractériser les régions des vertèbres par l‟utilisation des coefficients d‟ondelettes caractérisant les fréquences d‟image et les moments comme descripteur de forme. Ces descripteurs ont été introduits à un classifier SVM dans la deuxième étape de classification. La méthode d‟apprentissage utilisée, SVM, est basée sur la théorie d‟apprentissage statistique supervisé et utilisée dans ce travail pour la classification et la détection des régions vertèbres. Les tests préliminaires montrent un taux de classification de 83.5% pour la représentation par ondelettes et plus de 85% pour la représentation des moments en utilisant un classificateur SVM avec un noyau RBF. Les performances de notre classifier sont examinées par une méthode de validation croisée et une analyse de sensitivité/spécificité pour la détection des régions vertèbres.Item Multimodal Biometric Fusion Using Evolutionary Techniques(2012-06) Demri, MohammedRésumé L’utilisation des Techniques évolutionnaires pour la fusion biométrique Multimodal La biométrie est l’identification automatique de la personne basée sur ses caractéristiques physiologiques ou comportementales, telles que les empreintes digitales, le visage, la voix,... etc. Cependant, Un système biométrique Unimodal souffre de certaines limitations, telles que la non-universalité et la susceptibilité aux falsifications. Pour remédier aux ces problèmes, des informations provenant de différentes sources biométriques sont combinés, et de tels systèmes sont appelés les system biométrique multimodal. Dans ce mémoire, nous proposons l’utilisation de l’algorithme d’optimisation par les essaims de particules (OEP) et les algorithmes génétiques (AG) comme deux techniques évolutionnaires pour combiner la modalité du visage et de la voix au niveau des scores. L’efficacité de ces deux techniques est comparée à ceux obtenus en utilisant une simple BFS, une méthode intelligente hybride (ANFIS) et une technique d’apprentissage statistique (SVM). La technique de normalisation Min-Max est utilisée pour transformer les scores individuels en même intervalle avant de les combiner. Les deux techniques proposées sont évaluées expérimentalement sur des scores publiquement disponibles (XM2VTS, TIMIT, le NIST et BANCA) et sous trois conditions de qualité de données à savoir, propres, variées et dégradées. Afin de réduire l’effet de variation de scores sur l’efficacité du système biométrique, nous utilisons un mécanisme de normalisation de cohorte sans contrainte (UCN). Cette étude révèle que par le déploiement de telles techniques de fusion, les taux d'erreur de vérification (EER) peuvent être réduits considérablement, et la normalisation des scores par l’UCN avant de les combiner, a permis de réduire les EER pour les modalités individuels ainsi que pour fusion biométrique multimodalItem Classification des signaux EGC avec un système-multi-agent neuronale(University of Tlemcen, 2012) Belgacem, AmarLe signal ECG représente l’activité électrique du coeur et reflète l’état de santé de l’appareil cardiovasculaire. Il contient aussi des informations qui permettent la distinction des maladies cardiovasculaires. Le taux élevé de mortalité dans le monde dû aux problèmes liés au dysfonctionnement de l’appareil cardiaque a poussé les chercheurs à développer des techniques de classification automatique des maladies cardiovasculaires pour un bon diagnostic. Le travail dans ce mémoire présente un ensemble de méthode de classification et de discrimination d’arythmies et d’anomalies cardiaques en utilisant des paramètres pertinents. Ces paramètres sont relatifs aux intervalles et variabilités temporels extraits des signaux ECG. L’algorithme utilisé pour extraire ces paramètres est ce qui a été développé par des chercheurs du laboratoire de recherche en Génie biomédical de l’université de Tlemcen. Les paramètres extraits de la base de données d’arythmies cardiaques MIT-BIH sont utilisés pour mener un ensemble de tests pour évaluer les différents algorithmes proposés pour la classification et la discrimination des arythmies cardiaques. Dans un premier test et dans le but de détecter et classer les contractions ventriculaires prématurées (CPV) par rapport aux battements normaux, avec « réseau de neurones perceptron multicouche » développé sous environnement MATLAB a été évalué. Dans un deuxième test, et pour un même but de discrimination et de classification, les outils logiciel WEKA, TENAGRA ont été exploités et évalués. Finalement, dans un dernier test, le système neuronal multi-agent développé dans le cadre de ce travail a été testé et évalué dans le but de discrimination et de classification d’arythmies cardiaques. Les résultats obtenus, sont très satisfaisants et encourageants, malgré l’utilisation d’un nombre limité de paramètres pertinents caractérisant le battement cardiaque.Item Application de la classe des méthodes d’apprentissage statistique SVM(support vector machine) pour la reconnaissance des formes dans les images(University of Tlemcen, 2011-06) Belaidi, SouadDans ce mémoire, nous proposons une méthode de détection automatique de vertèbres dans les images à rayons-X par application de la méthodemachines a vecteurs de support (SVM).Leclassificateurproposé peut être intégréà un system d‟aide au diagnostic permettant aux radiologistes la sélection des régions vertèbres. Le processus de traitementpasse par deux étapes consistant à l‟extraction de caractéristiques et la classification. La première étape consiste à caractériser les régions des vertèbres par l‟utilisation des coefficients d‟ondelettes caractérisant les fréquences d‟image et les moments comme descripteur de forme. Ces descripteurs ont été introduits à un classifier SVM dans la deuxième étape de classification. La méthode d‟apprentissage utilisée, SVM, est basée sur la théorie d‟apprentissage statistique supervisé et utilisée dans ce travail pour la classification et la détection des régions vertèbres. Les tests préliminaires montrent un taux de classification de 83.5% pour la représentation par ondelettes et plus de 85% pour la représentation des moments en utilisant un classificateur SVM avec un noyau RBF. Les performances de notre classifiersont examinées par une méthodede validation croisée et une analyse de sensitivité/spécificité pour la détection des régions vertèbres.Item Multimodal Biometric Fusion Using Evolutionary Techniques(2012-06) Demri, MohammedBiometrics refers to the automatic recognition of the person based on his physiological or behavioral characteristics, such as fingerprint, face, voice, gait …etc. However, Unimodal biometric system suffers from several limitations, such as non-universality and susceptibility to spoof attacks. To alleviate this problems, information from different biometric sources are combined and such systems are known as multimodal biometric systems. In this thesis, we propose Particle Swarm Optimization (PSO) and Genetic Algorithm (GA) as two evolutionary techniques to combine face and voice modalities at the matching scores level. The effectiveness of these two techniques is compared to those obtained by using a simple BFS, a hybrid intelligent (ANFIS) and a statistical learning (SVM) fusion techniques. The wellknown Min-Max normalization technique is used to transform the individual matching scores into a common range before the fusion can take place. The proposed schemes are experimentally evaluated on publicly available datasets of scores (XM2VTS, TIMIT, NIST and BANCA) and under three different data quality conditions namely, clean varied and degraded. In order to reduce the effects of scores variations on the accuracy of biometric systems, we use Unconstraint Cohort Normalization (UCN) mechanism to normalize the matching scores before combining them. It is revealed in this study that by deploying such fusion techniques, the verification error rates (EERs) can be reduced considerably, and subjecting the scores to UCN process before combining them has resulted in reducing the verification EERs for the single modalities as well as for multimodal biometric fusion.Item Amélioration de l’apprentissage d’un Modèle Neuronal pour la reconnaissance des anomalies cardiaques(University of Tlemcen, 2010-07) Marouf, RadjàLa démarche diagnostique pour l’aide à la décision est une application privilégiée où le raisonnement humain demeure le modèle de référence notamment dans le domaine médical. La finalité d’un diagnostic est de pouvoir décider, après avoir observé un objet, à quelle forme typique celui-ci est similaire, ou en d’autres termes, à quelle classe connue il peut être associé ou affecté. L’approche neuronale appliquée au problème du diagnostic a fait ses épreuves depuis déjà plusieurs années et présente plusieurs atouts. Une détection précoce des différentes maladies permettrait d’assurer une prise en charge adéquate et améliorer la qualité de vie des patients. Nous réalisons dans ce mémoire de magistère une étude large et approfondie des différents problèmes d’apprentissage classique dans les modèles neuronaux en tenant compte des paramètres du modèle et de la distribution des exemples de la base d’apprentissage.Item Caractérisation de la rétine pour la reconnaissance biométrique des personnes(University of Tlemcen, 2011-11) Betouaf, Talib HichemLa biométrie mesure des attributs caractéristiques du corps humain pour authentifier un individu, notamment pour le contrôle d'accès. Il existe plusieurs techniques biométriques pour la reconnaissance de personnes, parmi lesquelles on peut citer celles qui utilisent les empreintes digitales, le visage, l'iris, la rétine,.... Dans ce travail, on s'intéresse aux images du fond d'oeil et principalement au réseau vasculaire de la rétine qui constitue une caractéristique des plus fiables pour l'identification biométrique.Item Mise en oeuvre d'une technique automatique se segmentation des sillons corticaux(2011) Benabdallah, AliUn des objectifs de la neuro-imagerie est de réaliser l'étude des structures cérébrales de sujets sains ou pathologiques. La grande variation des structures nécessite la mise en place de méthodes d'études spécifiques, souvent abordées par le biais de l'Imagerie par Résonance Magnétique (IRM). Les structures anatomiques qui nous intéressent ici sont les sillons corticaux. L'objectif de ce mémoire de magistère est de mettre en oeuvre une technique automatique de segmentation de sillons corticaux. Il s'agira dans un premier temps de présenter l’imagerie cérébrale et d'effectuer une étude bibliographique sur les méthodologies existantes. On s'intéressera particulièrement aux méthodes basées sur le seuillage et les contours actifs pour la tâche de segmentation. Il conviendra ensuite d'implémenter et comparer certaines de ces méthodes.Item etudes et comparaison des méthodes de segmentation d'images cérébrales(2011-07) Meziane, AbdelfettahLa segmentation automatique des structures cérébrales est une étape fondamentale pour les analyses quantitatives des images, et cela dans de nombreuses pathologies cérébrales telles que la maladie d’Alzheimer, la détection des tumeurs cérébrales ou la sclérose en plaques. La grande variation de ces structures nécessite la mise en place de méthodes d'études spécifiques, souvent abordées par le biais de l'Imagerie par Résonance Magnétique (IRM).L'objectif de notre travail est de mettre en oeuvre trois méthodes de segmentation automatique de ces structures. Il s'agit de : la méthode de croissance de régions, les modèles actifs de forme(ASM) et les modèles actifs d’apparence(AAM), afin d’évaluer leurs efficacité lors du processus d’aide au diagnostic, et aussi de comparer leurs performances.Item Traitement de données médicales par un Système Immunitaire Artificiel Reconnaissance Automatique du Diabète(2011-06-28) Saidi, MeryemL’utilisation des systèmes experts et les techniques dites intelligentes en diagnostic médical ne cesse d'augmenter graduellement. Les Systèmes Immunitaires Artificiels (SIAs) sont des méthodes parmi d'autres utilisées dans le diagnostic médical. Ce mémoire présente une approche hybride MAIRS2 (Modified Artificial Immune Recognition System 2) basé sur l’apprentissage du AIRS2 et l’algorithme K-plus proche voisin flou (k-ppv flou) pour reconnaitre les personnes diabétiques présentes dans la base de données Pima Indians diabetes (PID). Les performances des deux classifieurs, AIRS2 et MAIRS2, ont été comparées en fonction du taux de classification, sensibilité et spécificité. Les plus hauts taux de classification obtenus par l’application de l’AIRS2 et MAIRS2 sont respectivement 82.69 % et 89.10 %, en appliquant l'approche 10-folds cross-validation.Item Classification Automatique de Textes Approche Orientée Agent(University of Tlemcen, 2011-02) Matallah, HocineAvec l’avènement de l’informatique et l’accroissement du nombre de documents électroniques stockés sur les divers supports électroniques et sur le Web, particulièrement les données textuelles, le développement d’outils d’analyse et de traitement automatique des textes, notamment la classification automatique de textes, est devenu indispensable, pour assister les utilisateurs, de ces collections de documents, à explorer et à répertorier toutes ces immenses banques de données textuelles. Ainsi la catégorisation automatique de textes, qui consiste à assigner un document à une ou plusieurs catégories, s’impose de plus en plus comme une technologie clé dans la gestion de l’intelligence, les résultats obtenus sont utiles aussi bien pour la recherche d’information que pour l’extraction de connaissance soit sur internet (moteurs de recherche), qu’au sein des entreprises (classement de documents internes, dépêches d’agences, etc.). À l'égard des différentes approches de classification automatique de textes, décrites dans l’état de l’art, se reposant sur une architecture classique basée sur un seul point de vue, nous avons introduit une nouvelle utilisation du classifieur « Naïve Bayes » avec des textes codés en «N-grammes », basée sur une architecture Multi-Agent. L’objectif principal de nos travaux, est d’améliorer les performances et l’efficacité du modèle de classification. Le corpus de référence Reuters, va servir à mener une étude comparative des résultats obtenus.Item Construction semi-automatique d’ontologies à partir de textes arabes(University of Tlemcen, 2011) Benaissa, Bedr-EddineUn Framework consensuel de construction d’ontologie à partir de textes en quatre étapes à été le fruit de toutes les études de l’ingénierie d’ontologies : la constitution d’un corpus de documents, une analyse linguistique du corpus, une conceptualisation et finalement l’opérationnalisation de l’ontologie. Le but de cette étude est de présenter une méthodologie de création semi automatique d’ontologie à partir des textes arabes. Les contraintes et enjeux de ce processus sont identifiés, en soulignant l’importance de considérer cette tâche comme un processus supervisé par un expert du domaine. Notre intervention dans ce projet s’est focalisée sur une ontologie lexicale, en prenant comme modèle l’ontologie WordNet et comme source d’entrée, « les verbes arabes » d’un dictionnaire monolingue contemporain sous forme d’une base de données lexicale. Le verbe, pivot de la phrase, est notre objectif pour la création des concepts en s’appropriant les synsets comme modèle de représentation du sens. L’algorithme de Markov pour le clustering du graphe, généré par des différents définissants obtenue par une fermeture transitive, nous a permis de détecter les verbes semblables et d’identifier ainsi pour une entrée verbale donnée l’ensemble de ces synonymes.Item ETUDE ET RÉALISATION D’UN RAISONNEUR DANS LES LOGIQUES DE DESCRIPTIONS(2011-07-03) Bourzig, SofianeUn système à base de connaissances est un programme capable de raisonner sur un domaine d'application pour résoudre un certain problème, en s'aidant de connaissances relatives au domaine étudié. Les connaissances du domaine sont représentées par des entités qui ont une description syntaxique à laquelle est associée une sémantique. Les logiques de descriptions est le nom le plus récent d‟une famille d‟un formalisme de représentation de connaissance d‟un domaine d‟application. Dans ce formalisme, un concept permet de représenter un ensemble d'individus, tandis qu'un rôle représente une relation binaire entre individus. Un concept correspond à une entité cognitive générique d'un domaine d'application. Un individu correspond à une entité particulière dite instance d‟un concept. Une description est une spécification d‟un ensemble de termes ou chaque terme représente un concept du domaine. Notre mémoire introduit, comme études théoriques, les fondements des logiques de descriptions : la syntaxe et la sémantique d'un concept et de relation conceptuelle, la relation de subsomption et le raisonnement terminologiques. Il existe deux approches principales pour appréhender la détection des relations de subsomption et de raisonnement terminologique. La première approche s'appuie sur les algorithmes de normalisation comparaison : NC ; La seconde approche sur la méthode des tableaux sémantiques appliquée aux logiques de descriptions. Pour la mise en oeuvre de notre raisonneur DL, nous avons implanté la méthode NC en tant qu‟expérimentation. Nous avons, finalement, opté pour la méthode des tableaux sémantiques