Doctorat Classique RSD

Permanent URI for this collectionhttps://dspace.univ-tlemcen.dz/handle/112/10249

Browse

Recent Submissions

Now showing 1 - 6 of 6
  • Item
    ETCHIALI
    (University of Tlemcen, 2024-04-20) Etchiali, Abdelhak
    La technologie des services web constitue une implémentation idéale du paradigme du calcul orienté services (SOC). Étant donné que l’objectif principal du SOC est d’assurer l’interopérabilité des applications et la création de compositions d’applications (ou de services) avec valeurs ajoutées, il conviendra de concevoir et de mettre en oeuvre des modèles permettant de combiner des services web individuels dans des workflows satisfaisants des critères de performance objectifs. Il convient de noter que les services web courants sont caractérisés par différents attributs de QoS qui jouent un rôle majeur dans la spécification des compositions de services désirés. Il est utile de souligner que les attributs de QoS dépendent largement des fluctuations de l’environnement (par exemple, la surcharge des réseaux, ou la fluctuation des coûts en raison des saisons ou des événements socioculturels) et par conséquent, leur incertitude créera des difficultés supplémentaires dans la modélisation mathématique du problème de composition. Dans cette thèse, nous adressons la composition des services avec incertitude de QoS en proposant deux contributions principales, toutes les deux exploitent une recherche locale et globale pour alléger la complexité temporelle du problème. La première contribution exploite l’heuristique des intervalles majoritaires pour effectuer la recherche locale, en outre, la recherche globale est effectuée à l’aide d’une recherche exhaustive qui exploite les contraintes globales. Dans la deuxième contribution, nous adoptons une version discrète de la méta-heuristique de l’algorithme des chauves-souris (bat algorithm) en plus d’un ensemble d’heuristiques (telles que la dominance floue et la dominance stochastique d’ordre zéro) pour effectuer à la fois la recherche locale et globale. Les résultats obtenus confirment l’efficacité de nos contributions, et en particulier, les performances étaient satisfaisantes pour les workflows qui ont une taille variant entre 2 et 10 composants
  • Item
    Management of joint radio resources in heterogeneous networks Beyond 3G
    (07-06-2018, 2017-06-05) Bendaoud, Fayssal
    Heterogeneous Wireless Networks (HWNs) is a term referring to mixed networks made of different Radio Access Technologies (RATs) which aims to achieve the Always Best Connected concept (ABC). Users with multi-mode terminals can connect to di erent radio access technologies such as 802.16, 802.11, HSPA and LTE at the same time. The challenge consists of the choice of the suitable access network from the available RATs list; the decision process is called the Network Selection (NS). The network selection process depends on several parameters such as QoS, mobility, cost, energy battery etc. Several methods and approaches have been proposed to address this issue. Two main contributions are presented in this thesis, the rst one called modi ed-SAW function to deal with the drawbacks of the legacy SAW, the proposed solution outperforms almost all the famous Multi Attribute Decision Making methods and eliminates the problem of rank reversal. The second contribution consists of presenting a framework that allows the users to select the best networks for the whole call session, especially from a mobility perspective. The framework consists of several steps, starting by the path prediction which is done using the Markov model order 2. The second step is to make the network selection on the zones of each predicted path, while the third step is to get the good RAT con guration for each predicted path. We use another function to select one of the best con gurations to be used for all the possible used paths. The results show that our proposal performs very well by eliminating the unnecessary vertical handovers while maintaining a good Quality of Service (QoS).
  • Item
    Design and Assessment of Routing Protocols For Vehicular Delay Tolerant Networks.
    (08-07-2019, 2018-12-23) Hamza Cherif, Arslane
    Through this thesis, we aimed to contribute to the research field of Vehicular Delay Tolerant Networks (VDTNs), and more importantly to the subfield of VDTN routing protocols. Indeed, our research works brought to light multiples findings related to this hot research topic; at first we gave a reminder about the minimal requirements needed to correctly assess the performances of VDTN routing protocols, especially regarding the considered network simulator & vehicle mobility, additionally to the realism of the scenario. Subsequently, our comparative study of main protocols demonstrated the suitability of geographic-based routing protocols compared to predictive ones. Consequently, we proposed the new geographic-based protocol GeoDTC based on Distance, Time and Custody transfer, which demonstrated its ability to outperform well-known geographic-based protocols, while achieving an ideal trade-off between a high delivery ratio and an acceptable overhead. Last but not least, we developed through this thesis a common architecture for the implementation of such routing protocols, which was largely used to achieve our works and was made publicly available online, in the hope that this will reduce the development gap and enrich the research community.
  • Item
    Vers un nouveau modèle de stockage et d‘accès aux données dans les Big Data et les Cloud Computing.
    (10-10-2018, 2018-09-15) Matallah, Houcine
    La révolution technologique intégrant de multiples sources d’informations, la vulgarisation de l’informatique dans les différents secteurs et domaines ont amené à l’explosion de la volumétrie des données, qui reflète le changement d’échelle des volumes, du nombre et de types. Ces accroissements massifs ont poussé à l’évolution des manières de gestion, de stockage, de localisation et d’accès aux données. Les dernières étapes de cette évolution informatique ont émergé de nouvelles technologies : Cloud Computing et Big Data. Le Big Data est un ensemble de technologies basées sur les bases de données NoSQL « Not Only SQL » permettant le passage à grande échelle en volumes, en nombres et en types de données. Les grandes entreprises du domaine informatique voient dans les nouveaux systèmes NoSQL, de nouvelles solutions permettant de répondre à leurs besoins d'évolutivité. Plusieurs solutions open-source et payantes de modèles NoSQL sont disponibles sur le marché. Dans la première contribution, nous développons une étude comparative sur les performances de six solutions NoSQL très répandues dans le marché, à savoir : MongoDB, CouchBase, Cassandra, HBase, Redis, OrientDB à l’aide du Benchmark YCSB. Ce dernier étant un outil très connu pour sa puissance de test et utilisé dans plusieurs travaux d’évaluation des bases de données NoSQL à savoir YCSB. La finalité est d’apporter l’assistance et l’aide nécessaire aux acteurs intéressés de Big Data et de Cloud Computing pour d’éventuelles prises de décision sur le choix de la meilleure solution appropriée pour leurs entreprises. Notre deuxième contribution consiste à proposer des remaniements internes dans l’architecture de l’implantation de référence des Clouds de stockage et de Big Data, à savoir HDFS d’Hadoop. Ce dernier adopte un service de métadonnées séparé aux données avec isolation et centralisation des métadonnées par rapport aux serveurs de stockage de données. Nous proposons une approche qui permet d’améliorer le service de métadonnées d’HDFS, afin de maintenir la cohérence sans compromettre les performances des métadonnées en employant un parallélisme modéré des métadonnées, entre centralisation et distribution des métadonnées, dans le but d’accentuer la performance et l’extensibilité du modèle.
  • Item
    Vers une composition automatique des services web.
    (10-09-2018, 2018-07-03) Bekkouche Épouse Merzoug, Amina
    La méthode de conception des architectures orientées services (SOA) est basée sur des standards et permet de créer une infrastructure informatique intégrée capable de répondre rapidement aux nouveaux besoins d’un utilisateur. Dans la pratique, il n’est pas toujours facile de trouver des services correspondant aux requêtes des utilisateurs. Par conséquent, la composition des services satisfaisant la requête est un besoin grandissant de nos jours. La composition de services implique la capacité de sélectionner, de coordonner, d’interagir, et de faire interopérer des services existants. Elle constitue une tâche complexe. Cette complexité est due principalement au grand nombre de services disponibles et à leur hétérogénéité puisqu’ils sont créés par des organisations différentes. Cette complexité est renforcée quand il s’agit de composer automatiquement des services à la demande pour répondre à des exigences qui ne sont pas réalisées par les services existants. Dans cette perspective, différentes approches ont été développées pour résoudre le problème de la composition de services web. Cependant, la plupart des processus de composition ne considèrent pas à la fois les propriétés fonctionnelles (c.-à-d. le flux de données échangé entre les services web en terme d’entrées et de sorties), les propriétés non-fonctionnelles (les paramètres de QoS des services web tels que le temps de réponse, le coût, la réputation, etc.) et les contraintes non-fonctionnelles de l’utilisateur (contraintes imposées sur les paramètres de QoS). Dans cette thèse, nous proposons une nouvelle approche de composition basée sur un graphe de planification amélioré et un algorithme Harmony Search (ou la recherche par harmonie) pour sélectionner la composition optimale ou quasi-optimale. Ainsi, notre approche combine : (1) un mécanisme de matching sémantique pour calculer la similarité sémantique entre les différents services constituant le service composite recherché et (2) une stratégie d’optimisation multi-critères de QoS utilisant l’algorithme Harmony Search satisfaisant les contraintes non-fonctionnelles de l’utilisateur. Pour améliorer le processus de sélection, nous avons comparé la version originale de l’algorithme Harmony Search avec ses deux variantes récemment développées : Improved Harmony Search (IHS) et Global Best Harmony Search (GHS). Nous menons une série d’expérimentations pour évaluer la performance de notre approche de composition en utilisant la collection de données de la compétition sur le WSC Web Service Challenge 2009. Les résultats obtenus montrent que : 1) notre approche est efficace pour trouver la composition optimale ou quasi optimale dans divers scénarios ; et 2) les deux variantes IHS et GHS ont apporté des améliorations en termes d’optimalité et de temps d’exécution.
  • Item
    La protection de la vie privée sur Internet.
    (10-09-2018, 2018-06-28) Belabed, Amine
    L’INTERNET devient un moyen de plus en plus indispensable, presque utilisable dans touts les domaines (communications, commerce, relations sociales, . . . ). La grande masse d’information qui circule sur Internet ouvre l’appétit de pas mal de gens et d’entreprises, qui utilisent ces informations hors de leur contexte légitime, touchant directement à la vie privée des personnes. Les conséquences de cette utilisation peuvent varier d’une simple collecte d’information qui touche à l’intimité des personnes, jusqu’au vol d’identité qui induit des conséquences graves et directes sur la victime, de ce fait, protéger sa vie privée n’est plus une question d’éthique. Le but de notre thèse est de faire une étude sur la protection de la vie privée sur internet. Nous avons choisi de traiter cette problématique sur plusieurs niveaux : le niveau accès et présentation, le niveau API et services et enfin le niveau stockage et base de données. Ces niveaux modélisent le cycle de vie des données circulant sur Internet depuis leur divulgation par les utilisateurs jusqu’à leur utilisation et stockage par les fournisseurs de services. Au niveau accès, nous avons traité la problématique de protection des données personnelles contre l’hameçonnage (le Phishing), le type d’attaque le plus utilisé sur Internet pour le vol d’identité. A ce niveau nous avons proposé une approche de lute contre le Phishing. Cette approche se base sur un filtre à deux niveaux : une liste blanche personnalisée et un classificateur SVM. Les pages de Phishing qui ne sont pas filtrées au niveau de la liste blanche sont traitées par le classificateur SVM, ce qui donne une meilleur efficacité. Au niveau API et services, nous avons traité la protection de la vie privée dans les services Web. Ce choix est motivé par le rôle central que cette technologie joue dans le fonctionnement d’Internet. Dans ce contexte, nous avons proposé un Framework de sélection de services qui préserve les exigences de vie privée des utilisateurs ainsi que les fournisseurs de services. Pour ce faire, nous avons introduit un formalisme qui permet de modéliser le problème de sélection sous forme d’un problème d’optimisation, avec un objectif de minimiser la fonction de risque relatif à l’utilisation des données privées par les services sélectionnés. Au niveau stockage, nous nous sommes concentrés sur l’anonymat des données collectées et stockées chez les fournisseurs de services. Même pour des raisons légitimes, les données collectées sont généralement partagées et publiées, ce qui expose les propriétaires de ces données à des risques d’attaques sur leur vie privée. Dans ce cadre nous avons proposé une approche de protection qui se base sur la publication des données fictives au lieu de vrais données. Les données fictives sont générées en utilisant des modèles issues des données originales, et en se basant sur les techniques de Machine Learning. Les données générées gardent certaines propriétés des données originales, ce qui assure à la fois une forte protection et une grande utilité.