Magister SIC

Permanent URI for this collectionhttps://dspace.univ-tlemcen.dz/handle/112/135

Browse

Recent Submissions

Now showing 1 - 18 of 18
  • Item
    Segmentation d’image par la méthode GMM (Gaussian Mixture Model)
    (University of Tlemcen, 2022-07-03) Haddouche, Marwa; Rahmani, Ikhlasse
    e travail effectué et présenté dans ce mémoire se situe dans le domaine du traitement d’images en général et la segmentation d’images en particulier. La segmentation d’images est généralement l’étape la plus importante dans le processus d’analyse d’images. Dans notre projet de fin d’étude nous avons travaillés sur les images médicales cérébrales d’IRM, notre objectif était de segmenter d’une manière automatique les différents régions qu’elle contient l’image médicale, selon une technique basée sur un modèle de mélange gaussien, en utilisant la méthode « EM » (Expectation maximisation) afin d’estimer ses paramètres
  • Item
    Développement d'un cadre générique pour le partitionnement des données RDF
    (University of Tlemcen, 2024-07-03) Boudghene Stambouli, Mohammed Reda
    Avec la croissance explosive des technologies web et l'avènement de l'ère numérique, le volume de données générées et partagées sur le web a atteint des niveaux sans précédent. Cette explosion de la création de données pose des défis significatifs en matière de gestion, de traitement et d'analyse de cet afflux massif d'informations. Cette thèse s'inscrit dans le cadre du projet PQDAG, qui vise à développer des outils avancés de gestion des données spécifiquement conçus pour assurer la mise à l’échelle et les performances lors du traitement des Big RDF Data. Notre objectif principal était de proposer des approches de partitionnement facilitant l'évaluation d'un grand nombre de requêtes SPARQL sans nécessiter de jointures entre les partitions, réduisant ainsi le temps de communication sur le réseau. Pour ce faire, nous avons appliqué et comparé plusieurs stratégies de partitionnement, y compris MPC (Minimum Property Cut), Metis et K-means. Le but était de minimiser le nombre de jointures inter-partitions et d'améliorer les performances de traitement des requêtes dans un environnement distribué, tout en réduisant les coûts de communication entre les partitions. Grâce à cette recherche, nous visons à identifier la solution la plus efficace pour relever les défis de la gestion des Big Data dans le cadre du projet PQDAG, améliorant ainsi la capacité à gérer et analyser les données RDF à grande échelle sur le web en parallèle.
  • Item
    La mise en place de tests de spécification : le cas pratique d'un simulateur chirurgical
    (University of Tlemcen, 2020-06-24) Benkebil, Hamza
    L'utilisation de la réalité virtuelle dans un cadre pédagogique améliore l'apprentissage et réduit le taux des erreurs médicales du chirurgien. Ce genre de systèmes peut introduire de nouveaux risques qui peuvent provoquer des blessures graves ou même la mort des patients si l'apprentissage n'est pas conforme à la réalité. Ainsi, la sureté a été perçue comme une propriété cruciale du système. L’intérêt de notre étude consiste à mettre en place les spécifications d’un simulateur de chirurgie pour effectuer les vérifications en utilisant la technique du model-checking
  • Item
    Amelioration de la Robustesse dun Classifieur Flou par Apprentissage
    (University of Tlemcen, 2015-02-15) Saidi Mohammed, El Fatih
    La précision et interopérabilité sont deux approches importantes dans la conception d’un système de classification flou. Dans beaucoup d’applications de monde réel, comme dans le domaine médical L’expert devrait être capable de comprendre le classifier et d’évaluer ses résultats. Les modèles à base de règles floues sont particulièrement adaptés, car ils sont constitués de simples règles linguistiques interprétables. Ce mémoire de Magister traite la possibilité d’utilisation des Algorithmes Génétiques afin d’augmenter la robustesse de notre classifier floue a travers d’un processus d’apprentissage structurelle et paramétrique. La partition floue, le choix de nombre de variables pertinents et le raisonnement flou utilisés sont des taches les plus étudiés dans plusieurs travaux qui existent dans la littérature. Nos résultats expérimentaux appliqués sur la base de données du diabète (UCI Machine E-learning) montrent une augmentation dans la précision sans détérioration de interopérabilité. L’approche proposée est simple et efficace pour clarifier la décision finale du classifier.
  • Item
    Segmentation des Images par Contours Actifs : Application sur les Images Satellitaires à Haute Résolutions
    (2014-11-18) Madjaoui, Amina; Fares, Fadia
    Le contour actif, appelé aussi snake, est employé pour détecter les contours d'une image.il est composé de multiples énergies externes,internes et de contexte, qui permettent au sanke de ce déplacer dans l'image et de s'arreter sur un contour. Dans le cadre de notre mémoire, nous avons utilisé l'algorithme Greedy et l'algorithme de Kass qui utilisent quatre énergies..
  • Item
    Amélioration des Performances des Classifieurs à base de Métaheuristiques.
    (2014-06-15) Bekaddour, Fatima
    La performance d’une méthode de classification est d’un grand intérêt pour le choix, la comparaison et la validation des algorithmes de classification. La lisibilité des résultats et la réduction du cout d’échec total de la classification sont d’une importance cruciale pour l’amélioration de la performance des classifieurs. Dans ce mémoire de magister, nous proposons principalement deux approches de résolution à travers la description d’un modèle d’optimisation métaheuristique baptisé ProSadm-HBA (ProSadm : Programmation d’un Système d’Aide au Diagnostic Médical, en conjonction avec la métaheuristique HBA : Homogeneity Based-Algorithm) et F-HBA ( Fuzzy Homogeneity Based-Algorithm). Nous avons validé nos résultats expérimentaux sur des bases de données médicales connues : Pima (Diabètes), TH (Troubles Hépatiques), AP (Appendicite). Les approches développées permettent de minimiser le nombre total d’échecs de la classification (ProSadm-HBA) tout en respectant la contrainte d’interprétabilité des classifieurs (F-HBA). Ces contributions peuvent être d’un grand intérêt pour les experts dans le domaine médical.Performance of a classification method is of great interest for choosing, comparing and validation of classification algorithms. The transparency of results and the reduction of the total misclassification cost are of vital importance as well as the improvement of the performance of classifiers. In this magister report, we propose two solving approaches through the description of a meta-heuristic optimization model denoted ProSadm-HBA (ProSadm in conjunction with HBA: Homogeneity Based-Algorithm) and F-HBA ( Fuzzy Homogeneity Based-Algorithm) .we validated our experimental results based on three well known medical datasets: PID (Pima Indian Diabetes), LD (Liver Disorders) and AP (Appendicitis) . The developed approaches allow minimizing the total number of misclassification cases (ProSadm-HBA) while respecting the interpretability constraint of classifiers (F-HBA). These contributions can be of great interest for experts in the medical field.
  • Item
    Stratégie de tolérance aux pannes pour un routage efficace dans les réseaux de capteurs.
    (2014-05-29) Mohammed Belbachir, Malika
    Les réseaux de capteurs sont composés d’un très grand nombre de dispositifs de communication ultra petits, autonomes avec des ressources de calcul et d’énergie limitées. Ils sont actuellement considérés comme l’une des technologies qui bouleverse notre façon de vivre, grâce à leur utilisation dans différents domaines d’application. Cependant, les réseaux de capteurs sans fil rencontrent plusieurs problèmes qui affectent leur bon fonctionnement dû à leurs caractéristiques ; tels que les limitations de batterie, le type de communication, les environnements hostiles où sont déployés les capteurs ou encore leur faible coût. Par ailleurs, ces réseaux sont caractérisés par les pannes des noeuds qui peuvent causer un dysfonctionnement du réseau en entier. Dans cette optique, il est commode de proposer des protocoles de routage tolérants aux pannes. Une panne au niveau d’un capteur peut se produire à cause d’une perte de connexions sans fil due à l’extinction du capteur suite à l’épuisement de sa batterie, ou tout simplement à une destruction physique accidentelle ou intentionnelle par un ennemi. Par conséquence, il faut faire face à ces pannes en proposant des protocoles tolérants aux pannes.
  • Item
    Mise au point d’une application de reconnaissance faciale
    (2014-04-23) Khefif, Bouchra
    La reconnaissance faciale est actuellement un domaine en plein essor. Elle rentre petit à petit dans nos vies au travers de nos téléphones mobiles ou de nos ordinateurs portables. Malgré l’amélioration du taux de détection elle reste actuellement l’objet de nombreuses études. L’objectif de mon projet sera de mettre en oeuvre un système d’identification de personnes, cette identification s’appuie sur des séquences vidéo. Ces séquences sont analysée et on extrait l’information visuelle liée au visage, on construit alors notre base de données et on présente la technique permettant de reconnaître une personne parmi l’ensemble. Le système de reconnaissance faciale est basé sur le principe de Eigenfaces et nous utilisons la bibliothèques OpenCV et son implémentation de l’algorithme de Viola et Jones pour la détection de visage
  • Item
    Gestion de la sécurité d’une application Web à l’aide d’un IDS comportemental optimisé par l’algorithme des K-means
    (2014-04-23) Bendella, Zineb
    Un système de détection d’intrusion (IDS) est un mécanisme écoutant le trafic réseau de manière furtive afin de repérer des activités anormales ou suspectes et permettant aussi d’avoir une action de prévention sur les risques d’intrusions. Les méthodes de détection d’intrusions reposent essentiellement sur deux approches : l’approche comportementale et l’approche par signatures. Chacune des deux présente des points forts, mais aussi des faiblesses qui sont les faux positifs et les faux négatifs. Notre objectif et de gérer la sécurité d’une application web (boutique en ligne) en utilisant l’approche comportementale optimisé par l’algorithme K-means
  • Item
    Gestion sémantique des Compétences dans une communauté de pratique en E-Learning
    (2014-04-23) Hadj Mokhtar, Oussama
    Nous assistons à l’émergence des Communautés de Pratique (CoPs) dans différents domaines. Parmi les intérêts principaux de ces communautés, nous citons : échange et partage d’expérience, entraide et collaboration, apprentissage et développement en commun de connaissances tacites et explicites. A travers notre travail, nous nous intéressons au problème de capitalisation des compétences des acteurs appartenant à une nouvelle catégorie de COPs baptisé COPE (Communities of Practice of E-learning ou communauté de pratique en e-Learning). Il s’agit d’un espace virtuel d’échange, de partage et de résolution des problèmes rencontrés, entre les acteurs du elearning pendant de la création de leurs dispositifs de formation en ligne. Pour résoudre notre problème, nous avons basé sur une approche ontologique. Cette ontologie se concentre sur une modélisation explicite de la compétence qui pourrait être exploitée par différents systèmes d’annotation. L’exploitation de cette ontologie va aider les enseignants de la COPE d’échanger et partager leurs compétences
  • Item
    CMBIR (Content Medical Based Image Retrieval) développement d’outil logiciel d’annotation d’images médicales, utilisant les méthodes d’indexation par descripteurs invariants de contenus.
    (2014-02-20) Nedjar, Imane
    Pendant les deux décennies, plusieurs systèmes d’indexation et de recherche d’images par le contenu visuel ont émergé afin de combler les limites de l’indexation textuelle des images. Dans ce travail, nous proposons un système de recherche d’images médicale par contenu. Ce système est basé sur l’application des méthodes d’indexation de bas niveau tel que la texture et la forme. Il permettra également de proposer des annotations pour les images médicales nouvellement acquises en exploitant les résultats de la recherche. During the two decades, several content-based image retrieval systems (CBIR) have emerged to fill the limits of the textual image retrieval. In this work, we propose a content-medical based image retrieval system. This system is based on the application of low-level indexing methods such as texture and shape. It will also provide annotations for newly acquired medical images by exploiting the results of research.
  • Item
    Segmentation d’images microscopiques de cytologie.
    (2014-02-11) Benomar, Mohammed Lamine
    La segmentation des cellules sanguines est un enjeu de recherche important en hématologie et dans d'autres domaines connexe. Dans cet article, une technique de segmentation automatique des images microscopiques est proposée dans le but d'extraire les composantes des cellules sanguines (noyau, cytoplasme, globule rouge et plasma). L'image est représentée dans di érents espaces couleurs, une analyse discriminante linéaire (LDA) est réalisée pour extraire ses caractéristiques discriminantes a n de réduire le temps d'exécution, les redondances et le bruit. Dans ce travail, nous s'intéressons à la segmentation des cellules en utilisant la classi cation oue qui a donné des résultats intéressants dans di érents travaux. La segmentation est réalisée tout d'abord en utilisant l'algorithme standard de classi cation non-supervisée C-Moyennes Floues (FCM) dans le but d'extraire les globules blancs (noyau et cytoplasme), globules rouges et le fond (plasma) des images microscopiques de cytologie. L'algorithme FCM conventionnel n'exploite pas l'information spatiale et le voisinage des pixels dans l'image, malgré que les pixels dans une image sont fortement corrélés et le voisinage immédiat possède par fois les mêmes caractéristiques et attributs. A n de rendre l'algorithme plus robuste face aux imprécisions et aux bruits, deux techniques d'intégration et de prise en compte de l'information spatiale ont été introduites : 1) la fonction spatiale est calculée à partir de la moyenne des composantes colorim étriques des voisins directes du pixel considéré, l'algorithme est noté FCM_S1. 2) la fonction spatiale consiste en la somme des degrés d'appartenances des pixels voisins, l'algorithme est noté FCM_S2. L'objectifs principal est de donner des régions plus homogènes et réduire les taches parasites. Les trois méthodes proposées ont été testées sur des images réelles de cytologie. Les résultats montrent que les techniques proposées qui intègres l'information spatiale donnent de meilleur performance de segmentation.Abstract Analysis of microscopic images is an important task for medical diagnosis and segmentation cell is one of the most important steps. First of all, the microscopic image is a color image represented in a color space. There are several color spaces, each them represents color on di erent way. To bene t from the complementarity of di erent color spaces we applied a Linear discriminant analysis (LDA) on the original image as pretreatment step before segmentation. In this work, we focus on cells segmentation using fuzzy clustering which gave interesting results in various studies. At rst, the segmentation is performed by using the standard unsupervised clustering algorithm : Fuzzy C-Means (FCM) in order to extract the white blood cells (nucleus and cytoplasm), red cells and background of microscopic blood images. The pixels on an image are highly correlated, i.e. the pixels in the immediate neighborhood possess nearly the same feature data. Therefore, the spatial relationship of neighboring pixels is an important characteristic that can be of great aid in imaging segmentation. However, the conventional FCM algorithm does not fully utilize the spatial information. To improve the results of conventional FCM methods especially on noisy images, we introduced two segmentation methods that incorporate spatial information into the membership function : 1) the spatial function is calculated from the feature means of neighboring pixels of each pixel under consideration, the algorithm is noted FCM_S1. 2) the spatial function is the summation of the membership function in the neighborhood of each pixel under consideration, the algorithm is denoted FCM_S2. The aim is to yield region more homogeneous than those of other methods, remove noisy spots and reduce the spurious blobs. The new methods was tested and evaluated on microscopic color images. Preliminary results showed that the e ect of noise in segmentation was considerably less with the new algorithms FCM_S1 and FCM_S2 than with the conventional FCM algorithm. The experiments on the real world datasets show that our proposed algorithms (FCM_S1, FCM_S2), especially FCM_S2 with spatial constraints, are more e ective and able to extract the regions than the conventional FCM algorithm.
  • Item
    La programmation automatique : outils de la programmation génétique et certaines de ses applications
    (2012) Bouguettaya, Ali Walid
    La programmation génétique est une technique évolutionnaire qui induit des structures exécutables pour résoudre des problèmes difficiles. Cette technique fait partie des algorithmes dits évolutionnaires tout comme les algorithmes génétiques. Dans ce travail, nous avons présenté les concepts fondamentaux ainsi que certains concepts avancés de la programmation génétique. Nous avons ensuite implémenté trois applications qui utilisent la programmation génétique afin de traiter les problèmes de « génération automatique de modèles mathématiques », « génération automatique de circuits logiques» ainsi que « la résolution symbolique des polynômes ». Pour ainsi appuyer l’importance de cette technique, une étude des performances a été implémentée pour chaque application afin de montrer la force et les faiblesses de la programmation génétique
  • Item
    Composition des Services Web Sémantiques À base d’Algorithmes Génétiques
    (2012) Bekkouche, Amina
    Le processus de composition des services web s’est avéré essentiellement un processus qui prenait beaucoup de temps. En effet, une composition n’est pas simplement un regroupement quelconque de services web, mais un ensemble dont les tâches sont ordonnées en fonction des relations reliant ses services web. Ces derniers sont généralement fournis par des organisations différentes et indépendamment de tout contexte d’exécution. Puisque, chaque organisation possède ses propres règles de travail, ils doivent être traités comme des unités strictement autonomes. A cause de cette hétérogénéité et de cette autonomie inhérente aux services web sémantiques, leur composition devient plus complexe. De ce fait le besoin d’une composition dynamique et automatique se fait sentir. Dans ce mémoire, nous proposons une approche pour la composition dynamique des services web sémantiques basée sur un algorithme génétique, en prenant en compte à la fois les propriétés fonctionnelles des services Web -(spécifiées par les paramètres d’E/S)- et les propriétés non fonctionnelles -(spécifiées par les paramètres de QoS)-afin de satisfaire les exigences de l’utilisateur. Les résultats obtenus sont encourageants et méritent d'être poursuivis.
  • Item
    Extension de la QoS du Wifi vers le WiMAX
    (2012-04-08) Sedjelmaci, Amina Nadjet
    Le monde des réseaux informatiques a connu il y a quelques années une révolution explosive qui continue son escalade. Dans cette révolution, les diverses technologies se trouvent attirées par un champ de gravité fort et croissant, généré par l’étoile brillante de l’univers informatique qui est l’Internet. Elles s’orientent malgré elles vers un centre unique subissant ainsi un croisement de chemin inévitable illustré par la convergence de plusieurs solutions réseaux, considérées jadis comme mutuellement exclusives. Dans notre travail nous avons abordé la problématique liée à l’optimisation de la convergence entre deux technologies de réseau sans fil très prometteuses qui sont le Wifi et le WiMAX. Nous proposons une solution pour une configuration pratique où les deux réseaux convergent en une structure complémentaire et constructive en contraste à d’autres cas où la convergence serait compétitive. Notre contribution se résume ainsi, à la proposition d’une stratégie de couplage du contrôle d’accès dans les deux réseaux dans le but d’améliorer la gestion globale de la qualité de service dans le nouveau réseau composite. Nous proposons une implémentation de la stratégie sous forme d’un algorithme de contrôle d’admission combiné. Ce dernier est implémenté et évalué par la simulation en utilisant le logiciel spécialisé libre et open source « NS-3 ».
  • Item
    Construction du modèle TIME IMS-LD pour l’intégration de la dimension temporelle dans le langage de modélisation pédagogique IMS-LD
    (2011) Boudghene Stambouli, Yassine
    Le domaine de l’enseignement se trouve actuellement bouleversé par les changements profonds et les développements apportées par les NTIC (Nouvelles Technologies de l’Information et de Communication). Supportés par ces NTIC, en particulier les DN (Documents Numériques), l’intérêt et l’efficacité des FAD (Formation A Distance), EAD (Enseignement A Distance) ne sont plus à démontrer, ainsi que l’ampleur considérable qu’ils prennent dans le domaine du E learning et autres domaines adjacents. Le souci permanent de formalisation et de simplification de la tache des enseignants et concepteurs pédagogiques, a conduit à la mise au point d’outils et de langages de modélisation pédagogique, dans un premier temps centrés ressources tel le LOM, puis centrés activités à l’image d’IMS-LD. La notion de Temps, est une notion fondamentale dans un DP (DP) et à laquelle font face les concepteurs tout au long du processus de développement de leur SP (Scénario Pédagogique). Cependant elle très faiblement représentée et prise en charge dans ces LMS (Langages de Modélisation) en particulier IMS-LD auquel nous nous intéressons dans ce travail. Ce pourquoi nous allons au cours de ce travail nous atteler à intégrer la dimension Temps dans le langage IMS-LD à travers le développement d’un modèle d’intégration qui permettra de valoriser le facteur temps en tant qu’élément pivot dans un DP centré activité, d’évaluer les aspects temporels liés à un dispositif de FAD, afin de faciliter le passage du repère conceptuel du temps utilisé dans le DP vers un repère physique utilisé dans le LMS. Ce modèle sera conceptualisé dans un schéma UML puis formalisé dans un schéma XML.
  • Item
    Vers une Méthode pour la Mise en Place de Dispositifs E-learning
    (2011-09-07) Boudefla, Amine
    Depuis 1998, avec la généralisation d’Internet, l’impact des TICE sur les activités de développement des compétences et des connaissances s’amplifie. Dans la plupart des pays avancés, l’e-formation ou le e-learning est plutôt considéré comme une évolution d’un système global. On évoque en général la « e-transformation » des activités de formation. Tout le problème de mise en place de dispositif e-learning est d’effectuer des choix conscients, de les structurer de façon cohérente et diriger de façon consciente des situations. A cet effet, deux grandes approches sont cités dans la littérature, l'approche académique et l'approche industrielle. Dans notre cas on préconise une approche méthodologique pour la mise en place des dispositifs de formation en ligne s'inspirant de la discipline de l'ingénierie des systèmes. Bien qu'il existe des méthodes efficaces dans certains cas, Notre objectif n’est pas de prétendre le développement d’une méthode de mise en place de dispositif e-learning, nouvelle et complète, mais plutôt une méthode déduite d’autres en prenant le meilleur, selon nous, d’elles et en l’intégrant dans un cadre d’ingénierie systémique.
  • Item
    Étude de la relaxation de requêtes dans un contexte flexible
    Brikci-Nigassa, Amine
    L'une des priorités lors de la conception de systèmes de gestion de bases de données est de rendre la conversation avec la machine plus abordable pour l'utilisateur profane. L'un des problèmes majeurs qu'il peut rencontrer est celui des réponses vides, dont le traitement s'inscrit dans un domaine qui étudie les subtilités des échanges conversationnels : celui des réponses coopératives. L'accès aux données distantes étant souvent incomplet, il semble pertinent de traiter ce problème en agissant sur la requête, en atténuant l'exigence de ses critères. Sa relaxation pourra permettre de récupérer des réponses qui bien que proches de ces conditions avaient été écartées car elles ne les satisfont pas strictement, le but étant d'obtenir un ensemble nonvide de réponses.Notre travail s'inscrit dans le cadre de l'étude des requêtes flexibles, à prédicats graduels et représentés par des ensembles flous. Les tuples sélectionnés ne satisfont pas obligatoirement pleinement les conditions comme avec les requêtes classiques, et sont ordonnés selon leur degré de satisfaction à ces conditions, ce qui revient à les discriminer selon les préférences de l'utilisateur.L'aspect coopératif est introduit par une technique de relaxation basée sur la proximité relative. Les éléments qui ne satisfont pas (du tout) la condition d'un prédicat mais sont dans un voisinage proche pourront être récoltés grâce à cette relation de tolérance. Ainsi, les prédicats constituant la requête infructueuse sont transformés un par un de manière itérative afin d'aboutir à une requête qui renvoie un ensemble non vide de réponses sans trop s'éloigner de la requête initiale.Les combinaisons de transformations successives constituent un treillis de requêtes relaxées. Afin d'optimiser son parcours, ce treillis pourra être élagué en utilisant la notion des MFS (Minimally Failing Subqueries). La meilleure des requêtes à réponse non vide obtenues après ce parcours sera ensuite choisie grâce à la mesure de la distance de Hausdorff, employée pour comparer ses prédicats flous avec ceux de la requête initiale.La mise en oeuvre de l'approche présentée a été effectuée à travers un prototype écrit en Java. Son interface permet de tester des requêtes flexibles et de réaliser des expérimentations pour estimer l'efficacité de l'approche étudiée sur des bases de données du monde réel.