Browsing by Author "Encadreur: MALKI Mimoun"
Now showing 1 - 3 of 3
Results Per Page
Sort Options
- ItemConception des entrepôts de données : Evaluation des besoins flexibles(2018-07-01) LARBI Abdelmadjid; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Abstract The data warehouse design is very different from database one. In addition, the needs of warehouse users are only as clear as those of OLTP users. Rewriting Requêtes has attracted the attention of many researchers because it is related to several data management issues: query optimization, data integration, data warehouse design. To answer the evaluation and optimization problems of requests in order to specify the needs of the decision-makers (traditional requests) especially in cases where these needs are vague or include inaccurate or indeterminate parts (flexible requests). Fuzzy logic or expert systems or even ontologies can be used to remove indeterminacy. The data source inaccuracies (production base) of decision-making systems can lead to erroneous OLAP analysis. Therefore, the extracted data quality (errors, inaccuracy, etc.) and the precise assessment of the decision-maker needs (Unambiguity, uncertainty and inaccuracy) before choosing the production base has become in the latter years a major focus of decision-making research in general and in the decisional system design in particular. The data imperfections in decision-making systems are due to many causes such as the difficulty of having models close to reality or instruments limitations and acquisition processes. In addition, an inadequate representation of the collected information can also be a source of data quality degradation, the representation becoming too remote from the real world object that we wish to model. The inaccuracy may be due to the needs expression ambiguity of the decision maker. Starting from a misinterpretation of requirements, all DW designs and subsequent OLAP analyzes will be erroneous. As a result, many studies have focused on taking into account vague data in Information Systems but few studies have studied this case in data warehouses. This thesis work comes, along with other works, to fill the void in this context and to initiate a reflection around this problematic, through some contributions allowing the vagueness evaluation of the decisional needs based on requests and leading to the improvement of the data warehouse design quality and the relevance of the OLAP analysis thereafter. Keywords: Imprecision, decisional requirement, data warehouse, conception, expert system, fuzzy ontology.
- ItemContribution à l’optimisation d’ordonnancement de workflows dans un environnement cloud(2021-01-03) BENHAMMOUDA Mohammed; Encadreur: MALKI MimounRésumé (en Français) : Le cloud computing, initialement développée à partir de l'informatique en grille (grid computing), de l'informatique distribuée et de l'informatique parallèle, consiste en un ensemble d'ordinateurs virtuels interconnectés et utilisés dynamiquement, présentés sous forme de ressources informatiques unifiées basées sur des accords de niveau de service (SLA) établis par négociation entre le fournisseur de services, et les consommateurs, il est de plus en plus considéré comme un nouveau moyen d’utiliser les services informatiques, de stockage et de réseau à la demande de manière transparente et efficace. Plusieurs applications scientifiques dans de nombreux domaines, tels que la bioinformatique et l'astronomie, impliquent généralement de nombreuses tâches contraintes par des relations de priorité. Ces applications sont souvent exprimées sous forme de flux de travail, appelé aussi workflow, une série d'étapes de traitement connexes (tâches), où chaque étape prend des données en entrée, effectue un traitement et produit des données en sortie qui seront transmises aux étapes de traitement suivantes. Malheureusement, les services de cloud computing ne sont pas gratuits, un contrat d'accord de niveau de service (Service Level Agreement) signé entre le fournisseur et l'utilisateur fixera le prix à payer pour les ressources louées dans un modèle de paiement à l'utilisation. La planification des tâches est une étape importante lors de l'exécution d'un workflow dans un environnement de cloud computing. L’algorithme de planification doit trouver une répartition efficace des tâches du workflow de l’utilisateur sur le pool de ressources du fournisseur, en minimisant le temps nécessaire à l’exécution des workflow de l’utilisateur et en optimisant la disponibilité des ressources du cloud. En outre, la planification des tâches dans un environnement de cloud computing est un problème NP-difficile en général, et les algorithmes d'optimisation heuristiques sont largement utilisés pour la résolution de ce genre de problèmes. Un algorithme heuristique est utilisé pour trouver une solution sous-optimale du problème. Dans cette thèse, nous abordons le problème de la planification des workflows sur une infrastructure hétérogène de cloud computing, et une approche basée sur la parallélisation de l’algorithme de recuit simulé appelé PSA (Parallel Simulated Annealing) implémenté sur une architecture GPU est proposée. Sa mission est de planifier les tâches de chaque workflow destinée à utiliser les ressources de l’environnement cloud. La planification consiste à affecter chaque tâche du workflow à un processeur donné pour son exécution. Le processus doit être effectué en respectant la contrainte de précédence qui consiste à respecter l'ordre des tâches dans le workflow en fonction de leurs interdépendances, tout en minimisant le temps de calcul (makespan) qui a un impact sur la consommation d'énergie et le coût dans le cas où l'utilisateur dispose d'un budget limité. Les mots clés : Cloud computing, Planification des tâches, Workflow, Flux de travail, Gpu, Recuit simulée. Abstract (en Anglais) : Cloud computing, initially developed from grid computing, distributed computing, and parallel computing, consists of a set of interconnected and dynamically used virtual machines presented as computing resources. service-based level agreements (SLAs) established by negotiation between the service provider and consumers, it is increasingly seen as a new way to use IT, storage, and network services for request in a transparent and efficient way. Many scientific applications in many fields, such as bioinformatics and astronomy, usually involve many tasks constrained by priority relationships. These applications are often expressed as a workflow, also called a workflow, a series of related processing steps (tasks), where each step takes input data, performs processing, and outputs data that will be passed to users. Unfortunately, cloud services are not free, a service level agreement signed between the provider and the user will set the price to pay for the leased resources in a payment model use. Scheduling tasks is an important step when running a workflow in a cloud computing environment. The scheduling algorithm must find an efficient allocation of the user's workflow tasks to the provider's resource pool, minimizing the time required to execute the user's workflow and maximizing the availability of cloud resources. In addition, scheduling tasks in a cloud computing environment is an NP-hard problem in general, and heuristic optimization algorithms are widely used for solving such problems. A heuristic algorithm is used to find a sub-optimal solution of the problem. In this thesis, we address the problem of planning workflows on a heterogeneous cloud computing infrastructure, and an approach based on the parallelization of the simulated annealing algorithm called PSA (Parallel Simulated Annealing) implemented on a GPU architecture is proposed. Its mission is to plan the tasks of each workflow intended to use the resources of the cloud environment. Planning involves assigning each task in the workflow to a given processor for execution. The process must be carried out respecting the precedence constraint of respecting the order of tasks in the workflow according to their interdependencies, while minimizing the computing time (makespan) that has an impact on the cost in the case where the user has a limited budget. Keywords : Cloud Computing, Task Scheduling, Workflow, Gpu, Simulated Annealing
- ItemEnrichissement et intégration des données liées(2017-11-21) BENCHERIF Khayra; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Les données liées, telles qu’elles sont proposées par Tim Berners-Lee (2006), visent à partager et à interconnecter des données structurées sur le web sous forme d’une représentation lisible par la machine pour former un seul espace de données global. Dans ce contexte, Linked Open Data Cloud est un projet qui permet de publier et d’interconnecter des données structurées sur le web conformément aux principes des données liées. Avec le nombre croissant de données disponibles dans le LOD Cloud, le problème d’hétérogénéité des données dans ces sources augmente et, par conséquent, le besoin d’accéder à toutes ces sources via une interface unique et cohérente a été le défi de nombreuses recherches dans le domaine d’intégration des données liées. En fait, le processus d’intégration des données liées nécessite trois étapes principales : l’établissement de liens typés au niveau d’instances et l’alignement de différents vocabulaires utilisés pour décrire les entités ainsi que l’évaluation de la qualité et la fusion des données. Dans la littérature, il existe plusieurs travaux qui visent à réduire l’hétérogénéité en appliquant plusieurs méthodes d’intégration des données sur les données liées. Cependant, ces méthodes ne sont pas totalement satisfaisantes et le problème d’intégration reste ouvert pour la proposition de nouvelles contributions. Pour intégrer des ensembles de données liées, nous avons proposé plusieurs méthodes dans cette thèse. Afin de découvrir des liens typés au niveau d’instances, nous avons proposé une méthode qui vise à réduire le nombre de comparaisons lors du mapping de grands ensembles de données liées. De plus, nous avons développé un outil appelé LDVT (Linked Data VisualizationTool) qui permet de visualiser le résultat du processus de découverte de liens pour vérifier la précision et l’exhaustivité des liens. En outre, nous avons proposé une nouvelle approche pour fusionner les données liées à l’aide d’un algorithme génétique. Notre approche vise à combiner des valeurs conflictuelles de différents ensembles de données pour obtenir une vue unifiée de ces données. Nos méthodes d’intégration des données liées ont été évaluées en utilisant des ensembles de données réels à partir du LOD Cloud. Nous avons également comparé les méthodes proposées avec d’autres méthodes d’intégration de la littérature.