Veuillez utiliser cette adresse pour citer ce document : http://dspace1.univ-tlemcen.dz/handle/112/14188
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorMATALLAH, Houcine-
dc.date.accessioned2019-05-19T09:49:30Z-
dc.date.available2019-05-19T09:49:30Z-
dc.date.issued2018-09-05-
dc.identifier.citationsalle des thesesen_US
dc.identifier.otherdoc-003-22-01-
dc.identifier.urihttp://dspace.univ-tlemcen.dz/handle/112/14188-
dc.descriptioncden_US
dc.description.abstractThe technological revolution integrating multiple information sources and extension of computer science in different sectors led to the explosion of the data quantities, which reflects the scaling of volumes, numbers and types. These massive increases have resulted in the development of new locations techniques and access to data. The final steps in this evolution have emerged new technologies : Cloud Computing and Big Data. Big Data is a set of technologies based on NoSQL databases allowing scalability of volumes, numbers and types of data. The important companies in the IT sector find these NoSQL systems, new solutions to respond to scalability needs. Multiple open-source and proprietary models of NoSQL are available on the market. In the first contribution, we develop a comparative study about the performance of six solutions widely employed MongoDB, Couchbase, Cassandra, HBase, Redis and OrientDB, using the YCSB tool. The latter being a very powerful test tool, used in multiple evaluation works of NoSQL databases. The purpose is to provide assistance and support to actors interested of Big Data and Cloud Computing for eventual decisions for the choice of solutions to be adopted. Our second contribution consists in proposing internal revisions in the architecture of the reference implementation of storage clouds and Big Data, namely HDFS of Hadoop. This latter is based on the separation of metadata to data that consists in the centralization and isolation of the metadata of storage servers. We propose an approach to improve the service metadata for Hadoop to maintain consistency without much compromising performance and scalability of metadata by suggesting a mixed solution between centralization and distribution of metadata to enhance the performance and scalability of the model.en_US
dc.description.sponsorshipLa révolution technologique intégrant de multiples sources d’informations, la vulgarisation de l’informatique dans les différents secteurs et domaines ont amené à l’explosion de la volumétrie des données, qui reflète le changement d’échelle des volumes, du nombre et de types. Ces accroissements massifs ont poussé à l’évolution des manières de gestion, de stockage, de localisation et d’accès aux données. Les dernières étapes de cette évolution informatique ont émergé de nouvelles technologies : Cloud Computing et Big Data. Le Big Data est un ensemble de technologies basées sur les bases de données NoSQL « Not Only SQL » permettant le passage à grande échelle en volumes, en nombres et en types de données. Les grandes entreprises du domaine informatique voient dans les nouveaux systèmes NoSQL, de nouvelles solutions permettant de répondre à leurs besoins d'évolutivité. Plusieurs solutions open-source et payantes de modèles NoSQL sont disponibles sur le marché. Dans la première contribution, nous développons une étude comparative sur les performances de six solutions NoSQL très répandues dans le marché, à savoir : MongoDB, CouchBase, Cassandra, HBase, Redis, OrientDB à l’aide du Benchmark YCSB. Ce dernier étant un outil très connu pour sa puissance de test et utilisé dans plusieurs travaux d’évaluation des bases de données NoSQL à savoir YCSB. La finalité est d’apporter l’assistance et l’aide nécessaire aux acteurs intéressés de Big Data et de Cloud Computing pour d’éventuelles prises de décision sur le choix de la meilleure solution appropriée pour leurs entreprises. Notre deuxième contribution consiste à proposer des remaniements internes dans l’architecture de l’implantation de référence des Clouds de stockage et de Big Data, à savoir HDFS d’Hadoop. Ce dernier adopte un service de métadonnées séparé aux données avec isolation et centralisation des métadonnées par rapport aux serveurs de stockage de données. Nous proposons une approche qui permet d’améliorer le service de métadonnées d’HDFS, afin de maintenir la cohérence sans compromettre les performances des métadonnées en employant un parallélisme modéré des métadonnées, entre centralisation et distribution des métadonnées, dans le but d’accentuer la performance et l’extensibilité du modèle.en_US
dc.language.isofren_US
dc.publisher19-05-2019en_US
dc.subjectCloud Computing, BigData, NoSQL, YCSB, Hadoop, HDFS, MapReduce, Metadata.en_US
dc.subjectCloud Computing, BigData, NoSQL, YCSB, Hadoop, HDFS, MapReduce, Métadonnées.en_US
dc.titleVers un nouveau modèle de stockage et d‘accès aux données dans les Big Data et les Cloud Computingen_US
dc.typeThesisen_US
Collection(s) :Doctorat LMD RSD

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Vers-un-nouveau-modele-de-stockage-et-dacces-aux-donnees-dans-les-Big-Data-et-les-Cloud-Computing.pdfCD5,88 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.