- [ VRPG-Doc-Sc] Informatique --- إعلام آلي
Permanent URI for this collection
Browse
Browsing - [ VRPG-Doc-Sc] Informatique --- إعلام آلي by Issue Date
Now showing 1 - 20 of 48
Results Per Page
Sort Options
- ItemLE MULTIMEDIA ET LES RESEAUX AD HOC EVALUATION ET OPTIMISATION DE LA QUALITE DE SERVICE(2012-12-03) BOUKLI Hacene Sofiane; Encadreur: LEHIRECHE AHMEDRésumé Au cours des dernières années, les réseaux mobiles Ad hoc (MANETs) ont eu beaucoup d'attention de la communauté de recherche. Les MANETs sont composés d’un ensemble d’équipements mobiles géographiquement distribués, partageant un seul canal de communication. Un réseau dans MANETs est créé spontanément et tous les nœuds dans le réseau travaillent en collaboration pour acheminer l’information sans l’utilisation d’une infrastructure. Ainsi, ce type de réseau offre une grande flexibilité et l’économie en coût de mise en œuvre. Toutefois, avec la flexibilité, de nombreux problèmes se posent à cause de la mauvaise qualité du support de transmission et de l’insuffisance des ressources. Dernièrement, les applications multimédia et temps réel sont devenues très répandues dans les réseaux Ad hoc ce qui a engendré une motivation croissante pour introduire la Qualité de service (QoS) dans ce genre de réseaux. Cependant, les caractéristiques des MANETs rendent la tâche d’assurer la QoS extrêmement difficile. Les protocoles de routage pour MANETs fournissent un service « best effort » pour acheminer les paquets jusqu'à leurs destinations. Ces protocoles doivent être adaptés pour assurer la QoS. Les protocoles de routage avec QoS travaillent en collaboration avec les mécanismes de gestion des ressources pour établir les chemins dans le réseau qui répondent aux exigences de QoS, tels que la gigue, la bande passante et la stabilité des chemins à travers le réseau. A cause de la grande mobilité des nœuds dans les réseaux MANETs, les informations de routage deviennent inconsistantes, les ruptures de liens deviennent fréquentes et la recherche des chemins alternatifs est exigée. Pour remédier à ces problèmes, plusieurs techniques ont été proposées dans la littérature. Cette thèse propose des approches simples et efficaces de routage avec QoS basées sur la fiabilité des chemins dans les MANETs et la cohérence d’information de routage. D’une part, Des mécanismes prédictifs et préventifs de maintenance des chemins pour réduire les ruptures des liens ont été proposés.Dans ce travail, nous avons proposé une approche qui combine à la fois les méthodes préventives et prédictives de maintenance de route afin de recueillir les avantages de ces approches. L'objectif principal de notre approche est l'amélioration de la qualité de service des protocoles de routage pour MANETs, afin d’avoir des chemins plus stables en minimisant les ruptures de liens. La performance de notre approche a été évaluée en utilisant une étude de simulation détaillée. En se servant des métriques de performances les plus connues, nous avons prouvé que la technique proposée a généré de bons résultats. D’autre part, pour résoudre le problème de l’incohérence d’information de routage dans le protocole Dynamic source routing protocol (DSR) plusieurs techniques ont été proposées. Dans ce travail, nous avons amélioré le mécanisme de gestion du cache de route. L’amélioration consiste à ajouter un temps d’expiration pour chaque chemin inséré dans le cache. L’efficacité de cette approche a été évaluée en utilisant une étude de simulation détaillée. Les résultats de la simulation montrent que la technique proposée donne de bons résultats. Abstract Over the last years, Mobile Ad-hoc Networks (MANETs) have received tremendous attention of the research community. MANETs are comprised of geographically distributed mobile hosts (nodes), sharing a common radio channel and communicating via multihop wireless links. A network is created spontaneously as these nodes cooperate to transmit information to each other without the use of a pre-existing fixed infrastructure. Thus, such a network provides both flexibility and cost savings. However, along with the flexibility, many problems arise due to the bad quality of transmission media, the scarcity of resources that affect path reliability. Since real-time communications will be common in MANETs, there has been an increasing motivation to introduce Quality of Service (QoS) in such networks. However, many characteristics of MANETs make providing QoS assurance an extremely challenging task. The conventional routing for MANETs provides only a best effort service to deliver packets to their final destinations. However, to ensure QoS, traditional routing protocols for MANETs must be adapted. Routing protocols supporting QoS work together with resource management mechanisms to establish routes through the network that meet QoS requirements, such as path reliability. Due to mobility, routing information become inconsistent, route failures become frequent and new route discoveries are required. To remedy this problem many approaches have been proposed in literature. This thesis proposes path reliability-based routing approaches in MANETs. The main goal is to avoid as possible route failure and inconsistent routing data. On one hand, Predictive and preemptive route maintenance have been proposed to solve the problem of route failure. In this thesis, an approach that combines both predictive and preemptive route maintenance to gather benefit aspects of those approaches have been proposed. The main goal of our approach is improving the MANETs quality of service capabilities by getting more stable routes. The effectiveness of the proposed approach is evaluated throw a detailed simulations using GlomoSim Simulator. Depending on the common performance metrics, the simulation results show that the proposed technique performs well. On the other hand, many techniques have been proposed to overcome the problem of inconsistent routing information in the Dynamic source routing protocol (DSR). In this thesis, an improvement of route cache management has been proposed. The amelioration consists of adding an expiration time for each route inserted into the cache. The performance of the proposed method is evaluated by detailed simulations and compared with DSR using GlomoSim Simulator. The simulation results show that the proposed technique performs well .
- ItemAnnotation sémantique des documents(2014-04-13) BENYAHIA KADDA; Encadreur: LEHIRECHE AHMEDالملخص (بالعربية) : عدد الوثائق على الأنترنت يتزايد يوما بعد يوم و عملية البحث أصبحت مهمة صعبة خاصة إذا ما تعلق البحث بالمحتوى. إضافة طبقة دلالية لمحتوى الوثائق هي واحدة من طرق إعطاءها أكثر دلالة، ومن ثم يصبح البحث بالمعنى لا بالمصطلحات. لذلك يجب أن توصف الوثيقة بقائمة من مفاهيم ترتبط بعلاقات معنوية ،وهذا ما يسمى بالشرح الدلالي. في هذه الأطروحة، نقدم منهج للشرح الدلالي للوثائق على شبكة الإنترنت. ويهدف هذا النهج إلى إضافة شروحات للوثيقة من حيث المحتوى والسياق. من حيث المحتوى إذ نقوم بتمثيل محتوى المستند بمفردات يتم ربطها بعد ذلك إلى مفاهيم الأنطولوجيا. و من حيث السياق،اعتمادا على مفهوم أن كل وثيقة علمية تحتوي على عدة وثائق مرجعية أخرى، و بالتالي نقوم بتوريث الوثيقة كل شروحات الوثائق التي ذكرتها كمراجع. في آخر خطوة نقوم بتأكيد صحة كل الشروحات الناتجة عن طريق ازالة التكرارات و التناقضات داخل قاعدة الشروحات الكلمات المفتاحية :الشرح الدلالي ، الفوقية ، البحت عن المعلومات ، أنطلوجيا ، التحقق من الصحة Résumé (Français et/ou Anglais) : Résumé Le nombre des documents sur le web s'accroit de jour en jour, et la localisation des documents est devenue une lourde tâche surtout lorsqu'il s'agit de recherche d'un contenu. Ajouter une couche sémantique aux documents c’est l’une des méthodes qui donne aux documents plus de sémantique, et alors la recherche devient un sens pas un terme. Donc un document doit être décrit par une liste de concepts reliés par des relations, c’est l’annotation sémantique. Dans cette thèse, Nous nous intéressons à une approche d’annotation sémantique des documents pédagogiques sur le web. Cette approche vise à annoter un document par contenu et par contexte ; par contenu, le document sera représenté par des mots clés qui seront ensuite reliés à des concepts d‘ontologie et par contexte, puisqu’un document cite généralement d’autres documents, nous propageons les annotations des références pour annoter le document citant. Nous appliquerons ensuite un module de validation qui consiste à rendre nos annotations cohérentes. Mots clés : annotation sémantique, métadonnées, recherche d’information, Ontologie, validation Abstract The number of documents on the web is growing day by day, and the location of the documents has become a difficult task especially if it comes to looking for content. Add a semantic layer to words of documents is one of the methods giving more semantics to the documents, and then the research becomes a meaningful, not just words. So a document must be described by a list of concepts linked by relations, it is the semantic annotation. In this thesis, we present a semantic annotation approach of pedagogic documents on the web. This approach aims to annotate a document by content and context, by content we represents documents by keywords that are connected to the ontology’s concepts. By context, as documents cite generally other documents, we propagate the annotations of references to annotate the citing document. We then apply a validation module, which consists to make our annotations consistent Key words: Semantic annotation, metadata, information retrieval, ontology, validation.
- ItemComposition Personnalisée des Services Web(2014-11-19) MEKOUR Mansour; Encadreur: BENSLIMANE Sidi MohammedRésumé : Le paradigme AOS (architecture orientée service) est devenu un standard pour la conception et le développement des applications distribuées à base de services web. La composition de services implique la construction de services à valeur ajoutée très souvent par la découverte, l'intégration et l'exécution des services préexistants. Cela peut être effectué de manière à ce que des services préexistants soient orchestrés en un ou plusieurs nouveaux services qui répondent mieux à une application composite. Malgré tous les avantages qu'elles apportent en termes d'interopérabilité et de réutilisation, les solutions de développement associées au paradigme AOS sont destinées aux programmeurs et restent difficiles à comprendre par le monde de l'entreprise. Pour être en phase avec le monde de l'entreprise, les applications à base de services web doivent être décrites en termes de propriétés extra-fonctionnelles qu'elles permettent de satisfaire et non seulement en termes de fonctionnalités qu'elles permettent de réaliser. Ceci permet de minimiser la discordance conceptuelle entre les services logiciels et l'énoncé des exigences des utilisateurs. L'étude présentée dans ce document nous a permis d'identifier les problèmes liés d'une part, à la composition de services web, et d'autre part à l'association des propriétés extra fonctionnelles à cette composition. Nous nous sommes intéressés à ces deux problématiques qui nous ont conduits à la conception du framework Ws-BeC (Web service-Behavioral composition) pour la composition de services web en tenant compte des propriétés comportementales des services composites. Le modèle permet aux concepteurs de composer des services et de prendre en compte des contraintes liées à la portée du comportement, par le biais de restrictions et de préférences, ainsi que des QoS des services composants. Au moment de l'exécution - par le biais de sélection, d'intégration voire de chevauchement de processus de services - le framework choisit d'une manière très approprié et beaucoup plus efficace, parmi les services accessibles, ceux qui répondent mieux aux besoins de la composition tout en respectant les caractéristiques comportementales. Mots clés : service web, composition dynamique de services, QoS, comportement de service, représentation et réécriture de processus de service, matching de processus, sélection, intégration, chevalement de processus de service. Abstract: The SOA (service-oriented architecture) paradigm has become the standard for the design and development of distributed Web service-based-applications. Services composition involves the development of customized services often by discovering, integrating, and executing existing services. This can be done in such a way that already existing services are orchestrated into one or more new services that fit better to the composite application. Despite all the advantages they offer in terms of interoperability and reuse, the development solutions associated with the SOA paradigm is intended for programmers and are difficult to understand by the business world. To be in tune with the business world, service-based applications should be described in terms of requirements they can meet and not only in terms of features can they achieve. This minimizes the discrepancy between the conceptual software services and the statement of user requirements. The work presented in this document led us to identify two main issues : (i) web service composition and (ii) behavioral properties associated with this composition. As we are interested in both issues we have designed a framework called Ws-BeC (Web service-Behavioral composition) which covers the design of compositions of Web services as well as their executions. The framework relies on a model for the composition of Web services associated with behavioral properties that takes into account the expression of the behavioral properties that composite services are required to fulfill. In addition, compositions can be parameterized so as to allow the end user to impose that certain quality of services constraints and preferences are satisfied by the executions of the composite service. At execution time - based on service selection, integration and even interleaving - the framework selects, in a very appropriate way and much more efficient, among accessible services, those which best meet the composition's needs. The framework automatically ensures that beahvioral properties associated with the composition are fulfilled by exploiting the behavioral properties of the underlying selected services. Keywords : web service, dynamic composition of services, QoS, service behavior, representation and rewriting of service processes, processes matching, selection, integration, interleaving of service processes.
- ItemUne approche instrumentée pour la mise en œuvre des Systèmes D’informations Pervasifs(2015-02-25) KHALFI Mohammed Fethi; Encadreur: Sidi Mohamed BENSLIMANERésumé (Français et/ou Anglais) : The recent technological overhangs have focused on the democratization of wireless networks and the miniaturization of communication devices. In this context, Ubiquitous Computing is a recent paradigm whose objective is to allow users to access data, and make information available anywhere and at any time. In other terms, Pervasive Information Systems (PIS) constitute an emerging class of Information Systems where Information Technology is gradually embedded in the physical environment, capable of accommodating user needs and wants when desired. PIS differ from Desktop Information Systems (DIS) in that they encompass a complex, dynamic environment composed of multiple artefacts instead of Personal Computers only, capable of perceiving contextual information instead of simple user input, and supporting mobility instead of stationary services. First, as an initial step, we present PIS novel characteristics compared to traditional desktop information systems ; we explore this domain by offering a list of challenges and concepts of ubiquitous computing that form the core elements of a pervasive environment. As a result of this work, a generic architecture for intelligent environment has been created. Based on various and related works concerning models and designs. This framework can be used to design any PIS instance. Second, Context awareness is the core feature of pervasive computing. High-level context awareness can be enhanced by situation awareness that represents the ability to detect and reason about the real-life situations. In order to deal with the problem in context-aware modeling in pervasive computing environments, we present a comprehensive and integrated approach for context modeling. We first propose a Meta model context based on ontology for Pervasive Computing aiming to extend its capabilities by adding new environmental aspects. The advantage is that it can provide a flexible modeling mechanism for multiple applications of context-aware pervasive computing. Finally, Pervasive environments are characterized by rich and dynamic context, where users need to be continuously informed about services relevant to their current context. We will present an enhancement of ubiquitous computing discovery mechanisms adding context handling capabilities to Web Services for Devices in Pervasive Computing using UPnP as an infrastructure to address these implicit requests. Our method uses location aware, UPnP infrastructure, web service for devices and the notion of proactivity in pervasive computing to continuously present the most relevant services to the user or device in response to changes of context, services or user preferences.
- ItemMaintenance des applications orientées web par des ontologies de domaine : La rétro-ingénierie à base d’indexation sémantique.(2015-04-21) DENNAI Abdesselem; Encadreur: BENSLIMANE Sidi MohammedRésumé (Français et/ou Anglais) : Résumé : Les applications orientées web sont devenues les moyens de communication les plus importants pour les entreprises commerciales de toutes sortes. Cependant, la plupart de ces applications sont construites dans l’urgence. Pour écourter les délais de développement, la phase de conceptualisation est souvent sacrifiée et la documentation associée est négligée. En outre, en phase d’exploitation, ces applications sont modifiées au fil des besoins. Elles subissent diverses dégradations touchant aussi bien leur contenu informatif que leur structure de navigation. L’objectif de ce travail est de proposer un processus de rétro-ingénierie des applications orientées Web à base d’une approche d’indexation sémantique. Cette approche qui, elle même, est à la base d’une ontologie de domaine avec l’utilisation de l’étiqueteur TreeTagger et le dictionnaire sémantique WordNet. Le processus que nous allons proposer, passe par quatre phases : (i). Modélisation : Cette phase permet d’avoir un ensemble de concepts représentants des informations non redondantes, extraites à partir des pages HTML ou des documents XML, (ii). Attachement sémantique : Le résultat de la phase précédente représente un élément candidat pour cette phase courante où on exploite l’ontologie de domaine pour la validation de ces concepts par application de la distance sémantique et en utilisant l’étiqueteur TreeTagger et WordNet. Un index initial est généré à la fin de cette phase, (iii). Enrichissement : Le contenu de l’index s’accroit par d’autres concepts de cette même ontologie en utilisant l’une des mesures de similarité sémantique entre les concepts de l’ontologie (Mesure de Wu et Palmer), (iv). Re-conceptualisation : L’index final, résultat de la phase précédente, sera transformé en dictionnaire de données en gardant que les concepts importants non redondants et en les complétant par d’autres informations telles que la définition du typage et la précision du format. Ainsi, une nouvelle conception du système ou de l’application peut commencer. Abstract: Web-oriented applications have become the most important means of communication for business enterprises of all kinds. However, most of these applications are built in a hurry. To shorten development time, conceptualization phase is often sacrificed and associated documentation is neglected. In addition, during operation, these applications are modified over the needs. They undergo various degradations affecting both their information content navigation structure. The objective of this work is to propose a process of reverse engineering web-oriented applications based on semantic indexing approach. Similarly, this approach based on domain ontology with the use of TreeTagger and semantic dictionary WordNet. The process we are going to propose four phases: (i). Modeling: This phase allows to have a set of concepts representatives non-redundant information, extracted from HTML pages or XML documents, (ii). Attachment semantics: The result of the previous phase is a candidate element for this current phase where it exploits the domain ontology to validate these concepts by applying the semantic distance and by using TreeTagger with WordNet. An initial index is generated at the end of this phase, (iii). Enrichment: The contents of the index increases by other concepts of the same ontology using one of semantic similarity measures between ontology concepts (Wu and Palmer measure), (iv). Reconceptualization: The final index, as a result of the previous phase, will be transformed into data dictionary keeping the important and no redundant concepts and supplementing them with other information such as the definition of typing and accuracy of the format. So, a new system design or application can begin.
- ItemLa découverte des services web sémantiques(2015-04-29) KHATER Maamar; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Avec l'air du web et l'apparition de la notion de services Web, les entreprises sont convertis à intégrer les services web dans leurs systèmes d’information (SI). La technologie des services Web est en train de devenir une approche prometteuse d'intégration et d'interaction des applications intra et inter organisations. Dans ce contexte, l'efficacité et la fiabilité des SI à base de services Web deviennent un facteur critique dans la réussite des entreprises. Les services Web sémantiques se situent à la convergence de deux domaines de recherche importants qui concernent les technologies de l’Internet : le Web sémantique et les Web services. L’objectif visé par la notion de services Web sémantiques est de créer un Web sémantique de services dont les propriétés, les capacités, les interfaces et les effets sont décrits de manière non ambiguë et exploitable par des machines. Cette thèse est consacrée au problème de la découverte dynamique des services web sémantiques. Notre première contribution traite la découverte des services OWL-S atomiques et consiste à proposer un algorithme de matchmaking basé sur la transformation de la matrice de matching (input/output) en un graphe orienté en tenant compte des règles de mapping, et sur le principe du plus court chemin. Notre seconde contribution traite la découverte des services OWL-S composites et consiste à proposer un algorithme de matchmaking à base de comportement en utilisant les graphes. Notre troisième contribution propose un modèle comportemental à base d’automates (les automates d’interface typés et pondérés –WTIA–). Ce modèle est le résultat d’émergence de deux modèles d’automates, les automates d’interface et les automates pondérés. Notre quatrième contribution consiste à utiliser le formalisme WTIA comme modèle comportemental de services sémantiques afin de réaliser le processus de matchmaking entre la requête de l’utilisateur et les services publiés
- ItemA Hierarchical Fusion Strategy in Multibiometric Authentication Systems(2015-05-14) Elmir Youssef; Encadreur: Elberrichi Zakariaالملخص (بالعربية) ملخص : أنظمة التحقق أو التعرف على الهوية متعددة القياسات الحيوية و التي تدمج المعلومات من مصادر حيوية متعددة، استفادت من مساحة أكبر في مجال الأمن وخصوصا في مجال التعرف والتحقق من هوية الأشخاص، و هذا نظرا لقدرتها على التغلب على القيود المفروضة على القياسات الحيوية الأحادية مثل عدم شمولية الصفات الحيوية، التشويش على مستوى أجهزة الاستشعار الحيوية و التغيرات الحيوية الكبيرة لنفس المستعمل ... الخ في هذه الأطروحة، تم البحث في حالة دمج البيانات الحيوية في جميع هذه الظروف من أجل انجاز نظام التحقق و التعرف على الهوية بقياسات حيوية متعددة استنادا الى دمج القياسات الحيوية للوجه، بصمة الاصبع، الصوت، الامضاء أو وريد الأصبع. وتعتمد غالبية أنظمة التحقق من الهوية متعددة القياسات الحيوية المقترحة في أحدث التقنيات الصناعية على أنظمة الدمج أو التكامل في نمط تسلسلي أو متوازي. و عكس ذلك فقد قمنا في هذه الأطروحة بالاعتماد على استكشاف استراتيجية الدمج الهرمية للاستفادة من مزايا النمطين التسلسلي والمتوازي وتحسين معدل التحقق الشامل لنظام التعرف على الهوية. بالإضافة إلى ذلك، تحسين أداء القياس الحيوي هو تحد صعب. في هذه الأطروحة، تم تقديم نظام التعرف و التحقق من الهوية متعدد القياسات الحيوية استنادا على استراتيجية دمج هرمية. وتعتمد هذه الاستراتيجية على مجموعة من عدة صفات حيوية باستخدام دمج هرمي متعدد المستويات للقياسات الحيوية. يشمل دمج القياسات الحيوية متعدد المستويات دمج قبلي مع اختيار الخصائص المثلى و دمج بعدي على أساس أقصى درجات التشابه. الحل المقترح يعزز أداء التعرف الحيوي استنادا إلى اختيار و تحديد خاصية مناسبة مثل تحليل المكون الرئيسي والتحليل الخطي المميز، تماشيا مع انعدام دعم كل مكونات الخصائص لدرجة تحسين الأداء Résumé (Français et/ou Anglais) : Résumé : Les systèmes d'authentification multi-biométriques qui fusionnent les informations de plusieurs sources biométriques, ont gagné plus d'espace dans le domaine de la sécurité et plus précisément dans le domaine de la reconnaissance et de vérification de l'identité des personnes, ce, en raison de leur capacité à surmonter les limites de la biométrie uni-modale comme la non-universalité des traits biométriques, le bruit au niveau des capteurs biométriques et la grande variation intra-utilisateur ... etc. Dans cette thèse, le cas de la fusion de données biométriques est inspecté dans toutes ces circonstances afin de réaliser un système multi-biométrique basé sur la fusion biométrique du visage, l’empreinte digitale, la voix, la signature en ligne ou la veine de doigt. La majorité des systèmes multi-biométriques proposées dans l'état de l'art des systèmes d'authentification sont basés sur la fusion ou l'intégration en mode série ou en mode parallèle, cependant, nous considérons dans cette thèse à explorer la stratégie de fusion hiérarchique pour bénéficier des avantages des deux modes; série et parallèle et améliorer le taux de reconnaissance global du système d'authentification. En outre, l'amélioration de la performance biométrique est une tâche difficile. Dans cette thèse, un système biométrique multimodal basé sur une stratégie de fusion hiérarchique, est présenté. Cette stratégie repose sur une combinaison de plusieurs caractéristiques biométriques en utilisant une hiérarchie de fusion biométrique multi-niveaux. La fusion biométrique multi-niveaux comprend une fusion de pré-classification avec la sélection optimale des caractéristiques et une fusion de post-classification basée sur la similitude de maximum de scores. La solution proposée améliore les performances de reconnaissance biométrique basée sur la sélection et la réduction appropriée des caractéristiques tels que l’analyse principale des composantes et l'analyse discriminante linéaire, autant que pas tous les composants des vecteurs de caractéristiques prennent en charge le degré d'amélioration des performances. Abstract : Multi-biometric authentication systems that fuse information from multiple biometric sources, have gain more space, in the field of security and more precisely in the field of recognition and verification of person identities, this, due to their ability to overcome the limitations of uni-biometrics as the non-universality of the biometric traits, the noise at biometric sensors level and the large intra-user variation ... etc. In this thesis, the case of the fusion of biometric data is inspected in all these circumstances in order to release a multi-biometric system based on biometric fusion of face, fingerprint, voice, online signature or finger vein. The majority of multi- biometric systems proposed in the state of the art of authentication systems are based on the fusion or integration in serial mode or parallel mode, however, this thesis consider to explore hierarchical fusion strategy to benefit from the advantages of both of serial and parallel modes and to improve the overall recognition rate of the authentication system. In addition, biometric performance enhancement is a chalange. In this thesis, a multimodal biometric system based on hierarchical strategy of fusion, is presented. This strategy combines several biometric traits based on multi-level biometric fusion hierarchy. The multi-level biometric fusion includes a prior-to-matching fusion with optimal feature selection and an after-matching fusion based on the similarity of minimum of distances. The proposed solution enhances the overall recognition performances based on feature selection and reduction using principal component analysis (PCA) or Linear discriminant analysis (LDA).
- ItemTraitement sémantique des données semi-structurées et non structurées : Des folksonomies aux ontologies(2015-05-14) Marouf Zahia; Encadreur: Benslimane Sidi MohamedRésumé (Français et/ou Anglais) : Le Web 2.0 est l'évolution du Web vers plus de simplicité et d'interactivité où l'utilisateur est au centre de service en termes de publications et de réactions. Cela fait passer l'utilisateur du statut de consommateur à celui de producteur. Les folksonomies constituent des fonctionnalités phares du Web 2.0. Elles permettent aux utilisateurs de décrire des ressources sur le web (billet de blog, page Web, photos, vidéos...) par des mots-clés choisis librement. Bien que les folksonomies et leurs tags soient subjectifs et dépendant du contexte, ce qui rend difficile leur exploitation, de nombreux chercheurs ont prouvé l'existence d'une sémantique implicite dans ces données non structurées. cette thèse propose une approche pour extraire des structures ontologiques à partir des folksonomies. L'approche exploite la puissance du clustering flou, et emploie de nouvelles mesures de similarité et de généralité. Le processus de clustering flou détecte les tags ambigus et les désambiguïse à la fois, la nouvelle mesure de similarité est utilisée pour découvrir les relations entre les tags, et la mesure de généralité est employée pour extraire la structure hiérarchique de la folksonomie. Les nouvelles mesures donnent des résultats plus précis car elles calculent les co-occurrences tout en prenant en compte les utilisateurs. L'ontologie générée peut être utilisée pour améliorer diverses tâches, telles que l'évolution et l'enrichissement des ontologies par l'ajout de nouveaux concepts créés par les communautés d'internautes. Elle peut également être utilisée dans la recommandation des tags pour guider le processus de marquage en proposant des tags plus contrôlées. En outre, l'ontologie générée peut être employée dans l'expansion des requêtes pour améliorer les la recherche de l'information.
- ItemDécouverte des services web : approche basée sur les préférences des utilisateurs(2015-06-10) EL BOUHISSI HOUDA; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Il y a eu un intérêt croissant pour les Services Web Sémantiques (SWS) comme une solution proposée pour faciliter la découverte automatique, la composition et le déploiement des Services Web. Pour profiter pleinement des avantages de cette technologie, un processus de ré-ingénierie des Services Web vers les Services Web Sémantiques est nécessaire. Malgré son importance, il n'y a que peu de travaux qui ont traité le problème de ré-ingénierie des Services Web vers les Services Web Sémantiques. La plupart de ces travaux n'ont pas traité les particularités des Services Web. Aussi la découverte des Services Web est l'un des défis majeurs du paradigme émergent SOA (Service Oriented Architecture). La majorité des travaux existants proposent une recherche à base de mots clés. Cependant, ce type d'approche ne permet pas de récupérer certains Services Web susceptibles de satisfaire les besoins des utilisateurs. L'objectif de cette thèse est double : d'une part, proposer une ré-ingénierie de Services Web vers les Services Web Sémantiques, et d'autre part, proposer une approche de découverte des Services Web basée sur les préférences des utilisateurs. Notre approche de découverte positionne la découverte des services dans une perspective centrée buts ("Goals") dans laquelle les services sont décrits en termes d'exigences qu'ils permettent de satisfaire. Nos contributions utilisent l'ontologie de service WSMO comme modèle sémantique de spécification des Services Web. Nous avons abordé ces problématiques à la fois d'un point de vue théorique et pratique. En plus de la proposition d'une ré-ingénierie de services et de la découverte des services pertinents, nous avons implémenté ces deux concepts en développant deux prototypes. WSDL2WSMO-LITE permet de convertir un fichier WSDL en des éléments de l'ontologie de services WSMO-LITE. Pour la découverte, nous avons développé un cadre de travail complet pour la recherche des Services Web susceptibles de satisfaire les exigences des utilisateurs. Enfin, pour valider notre démarche, nous avons appliqué nos approches à des cas d'études réels.
- ItemUtilisation des Ontologies dans la Catégorisation de Textes Multilingues(2015-06-29) BENTAALLAH MOHAMED AMINE; Encadreur: MALKI MIMOUNالملخص (بالعربية) : تندرج هذه الأطروحة في مجال تصنيف النصوص متعددة اللغات و الذي يهدف إلى إحالة النصوص المتعددة اللغات إلى فئة من بين الفئات المحددة مسبقا. الحل المباشر يكمن في ترجمة النصوص إلى نفس اللغة لاسيما يعاني هذا الحل من عدم دقة تقنيات الترجمة الآلية. في هذا السياق اقترحنا طريقتين ترتكزان على استخدام الانطولوجيات كحل لمعالجة المشاكل الناجمة عن استعمال الترجمة الآلية. تعتمد الطريقة الأولى على استعمال انطولوجيا أحادية اللغة كوسيلة للحد من تشويه المعلومات الناجم عن عدم دقة تقنيات الترجمة الآلية و ذلك عن طريق استبدال الكلمات المترجمة بالمفاهيم المخصصة لها في الانطولوجيا المستعملة. قي الطريقة الثانية، نقترح امتدادا للطريقة الأولى على أساس استخدام الانطولوجيات متعددة اللغات لتجنب استخدام تقنيات الترجمة الآلية. من أجل تقييم الطريقتين المقترحتين ، أجرينا تجاربنا باستخدام الانطولوجيتين و أظهرت نتائج التجارب تحسنا ملحوظا مقارنة بالطريقة التي تعتمد على الترجمة الآلية كحل وحيد مما يدل على نجاعة استخدام الانطولوجيات في مجال تصنيف النصوص متعددة اللغات . Résumé (Français et/ou Anglais) : L’objectif de la catégorisation de textes multilingues est de permettre l’assignation d’une ou plusieurs catégories parmi une liste prédéfinie aux textes multilingues. La solution la plus directe consiste a traduire tout les documents vers une seule langue. Néanmoins, cette solution souffre de l’imprécision des techniques de traduction automatique. Les travaux de cette thèse s’inscrivent dans la problématique générale liée à l’utilisation des ontologies pour la catégorisation de textes multilingues. Dans notre première contribution, nous proposons une nouvelle approche de catégorisation multilingue intégrant les ontologies dans la phase de représentation comme moyen pour réduire les distorsions d’information causées par les traducteurs. L’idée consiste a mapper les traductions générées via les concepts de l’ontologie monolingue utilisée. Dans la deuxième contribution, nous proposons une extension de la première approche qui se base sur l’utilisation des ontologies multilingues afin d’éviter l’utilisation des techniques de traduction automatique. Dans nos expérimentations, nous utilisons le Princeton WordNet ainsi que le WordNet Espagnol pour évaluer les deux approches proposées sur deux corpus bilingues Anglais-Espagnol. Les résultats obtenus montrent une nette amélioration par rapport a l’approche basée sur la traduction automatique.
- ItemA highly efficient algorithm for fast motion detection and estimation using parallel processing(2015-11-30) EL BAHRI Mohamed; Encadreur: TALEB Nasreddineملخص المراقبة بالفيديو للمشاهد الحيوية، هي واحدة من أصعب الموضوعات البحثية الحالية في الرؤية الحاسوبية، هذه التكنولوجيا مهمة في مجال مكافحة الإرهاب والجريمة، لضمان السلامة العامة والإدارة الفعالة لحركة المرور على الطرق. هذا العمل هو تصميم نظام فعال للكشف وتقدير الحركة لتتبع الكائن في بيئة معقدة. في المراقبة بالفيديو، والكشف عن الأجسام المتحركة من الفيديو مع تصنيف الكائن، وتتبع الهدف، وتقدير النشاط، في هذه الأطروحة استخدمنا الطرح الخلفية لكشف الحركة. من أجل التعرف على الأشياء، استخدمنا نظام التصنيف على أساس التمثيل المتفرق. ويقترح معالجة أسرع في هذا العمل، وذلك باستخدام أداء بطاقة العرض المرئي. هذا التسارع هو توازي للخوارزمية المستعملة. لتسريع النظام وجعله يعمل في الوقت الحقيقي Résumé (Français) : Résumé La surveillance visuelle des scènes dynamiques, est l'un des difficiles sujets de recherche actuels en vision par ordinateur. C'est une technologie clé pour lutter contre le terrorisme, la criminalité, pour assurer la sécurité publique et pour la gestion efficace de la circulation routière. Ce travail consiste à concevoir un système efficace de détection et d'estimation de mouvement pour le suivi d'objet dans un environnement complexe. Pour la surveillance vidéo, la détection d'objets en mouvement à partir d'une vidéo est importante pour la classification d'objet, suivi de cible, la reconnaissance de l'activité, et la compréhension du comportement. Dans cette thèse nous avons utilisé la soustraction du fond pour la détection du mouvement. Pour pouvoir reconnaitre les objets, nous avons utilisé un système de classification basé sur les représentations parcimonieuses. Une accélération du traitement est proposée dans ce travail, en utilisant les performances des cartes graphiques. Cette accélération consiste à paralléliser l'algorithme "Othogonal Matching Pursuit" pour accélérer le traitement et le rendre opérant en temps-réel. Résumé (Français et/ou Anglais) : Abstract Visual surveillance of dynamic scenes is one of the difficult current research topics in computer vision. It is a key technology in the fight against terrorism, crime, to ensure public safety and to the effective management of road traffic. This work is to design an effective system of detection and motion estimation for object tracking in a complex environment. In video surveillance, detection of moving objects from a video is important for objects classification, target tracking, recognition of the activity, and understanding behavior. In this thesis we used background subtraction for motion detection. In order to recognize objects, we used a classification system based on sparse representation. A faster processing is proposed in this work, using the performance of graphics cards. This acceleration consists to parallelize the "Othogonal Matching Pursuit" algorithm to speed up the processing and make it operate in real-time.
- ItemEmpaquetage Dynamique à Base de Services Web Sémantiques(2015-12-08) MERAZI AFAF; Encadreur: MALKI MIMOUNRésumé (Français et/ou Anglais) : This thesis lies within the scope of work relating to the Semantic web Services, from the point of view of the complementarity and the coevolution of two aspects of the Web, services and semantics in the tourist domain. In order to improve the search and reservation experience of the user, we are particularly interested in the use of the Linked Open Data in order to facilitate the access to the offer of tourist products and services present on the Web, and this in a useful way, informative and enriching for the user on one hand and compromise ensuring a flexible and dynamic composition of the Semantic Services Web relating to the reservation of their stays on the other hand. In our work we show how the semantic links between concepts resulting from the tourist graph Web can be used together for finding the better Semantic Web Services in order to solve the user'semantic request (expressed in SPARQL) and explain our method of dynamic composition based dependence graph where the nodes of the generated graph are related to the cluster of services (the Iso-functional Process models, possibly being useful in replanning phase of the breakdown of a component in the generated workflow) and the transitions are the semantic links representing the services'interdependence. Then, we propose an incremental algorithm that extracts the relevant atomic processes for the composition by sorting the equivalents Process Models according to a definite similarity criterion thus making it possible to optimize the size of the initial graph in terms of the number of their atomic processes (an indivisible operation) and to deduce the final and optimal composition plan using the matrices theories thus representing the desired dynamic package. The results of experiments show that they are able to ensure scalability for more complex problems.
- ItemSécurité et compression de l’information multimédia(2016-01-07) Ouamri mokhtar; Encadreur: FARAOUN Kamel MohamedAbstract (English) : The multimedia information occupies an essential place in our daily life with a booming success in current digital technology markets. The video is one of the most used multimedia information, and it is found in many different applications on/offline such as video conference, VOD (video on demand) and in social networks such as streaming. Secure communication deploying digital video requires passing by pioneer steps such as compression (or source coding) to reduce the amount of transmitted information, coding to combat transmission errors, and protection of communicated information by security measures such as digital signature, steganography, watermarking and cryptography by encryption approach. HEVC (High Efficiency Video Coding) is the latest video coding standard. It provides a hybrid coding architecture allowing the compression of high definition videos. Indeed, this standard is expected to be the future codec of Ultra HD era. As the video HEVC represents the result of a compression of large amount of visual data, maintaining the compressed bitstream size is unavoidable in the design of a crypto-compression system for the protection of HEVC videos. And this can be achieved by the inclusion of encryption module during CABAC (Context-adaptive binary arithmetic coding) which is the only entropy coder used by HEVC. In this PhD thesis, we proposed two selective encryption approaches for HEVC videos, where we encrypted syntax elements related to quantized frequency coefficients. In our first approach, Golomb-Rice codes recently introduced into HEVC and signs of non-zero coefficients are protected. While in the second approach, we selected all codes used for coding non-zero coefficients with signs for encryption in a context well-defined. The two proposed approaches generate a compliant encrypted HEVC bitstream with a same size as the original bitstream. Consequently, the contributions presented in this thesis are indeed a first step towards the security of the HEVC standard. Résumé (Français) : L’information multimédia occupe une place incontournable dans notre vie quotidienne avec un succès florissant et incontestable dans les marchés actuels de la technologie numérique. La vidéo est l’une des informations multimédias les plus utilisées. On la trouve dans des applications très variés en ou hors ligne comme la vidéo conférence, VOD (vidéo à la demande), et dans les réseaux sociaux comme celles de streaming. Une communication sûre déployant la vidéo numérique nécessite le passage par des étapes pionnières comme la compression (ou le codage de source) pour réduire la quantité transmise et d’extraire l’information pertinente à transporter, le codage pour combattre les erreurs de transmission et la protection de l’information par des mesures de sécurité logicielle et/ou matérielle comme la signature numérique, la stéganographie, le tatouage numérique, et la cryptographie par des approche de chiffrement. HEVC (High Efficiency Video Coding) est la dernière norme de codage vidéo. Elle apporte une architecture hybride de codage permettant ainsi la compression de vidéos à haute définition. En effet, cette norme est attendue à être le futur codec de l’ère Ultra HD. Comme la vidéo HEVC représente le résultat d’une compression de grande quantité de données visuelles, le maintien de la taille de flux binaire compressé s’avère inévitable lors de la conception d’un système de crypto-compression pour la protection de vidéos HEVC. Et ceci pourra être atteint par l’inclusion de module de chiffrement durant CABAC (Context-adaptive binary arithmetic coding) qui est le seul codeur entropique utilisé depuis HEVC. Dans cette thèse, nous avons proposé deux approches de chiffrement sélectif pour les vidéos HEVC, où nous avons chiffré des éléments syntaxiques relatives aux coefficients fréquentiels quantifiés. Dans notre première approche, les codes de Golomb-Rice récemment introduits dans HEVC et les signes de coefficients non-nuls sont protégés. Alors dans la deuxième approche, nous avons choisi tous les codes utilisés pour le codage de coefficients non-nuls avec ses signes pour le chiffrement dans un contexte bien étudié. Les deux approches proposées génèrent des flux binaires HEVC cryptés conformes à la norme de codage avec une taille identique aux flux binaires clairs. En conséquence, les contributions présentées dans cette thèse constituent en effet un premier pas vers la sécurité de la norme HEVC.
- ItemOrchestration d’activités mobile d’apprentissage.(2016-01-07) DENNOUNI Nassim; Encadreur: SLAMA Zohra; Co-Encadreur: LANCIERI Luigiالملخص (بالعربية) أصبح التعلم باستخدام الهاتف المحمول موضوعا للاهتمام لأنه ينطوي على العديد من مجالات الأبحاث التي تعتمد أساسا على تحديد مكان المتعلمين بواسطة التقنيات الحد يثة. في الواقع، هذا النوع من التكوين معروف بقدرته على تحفيز المتعلمين لبناء معارفهم الخاصة من خلال التعاون مع الآخرين. في هذا السياق، سيناريوهات التعلم بواسطة الهاتف النقال تسمح بالتحكم الاني لأنشطة المتعلمين ولكن هذا يؤدي إلى عمل تنظيمي كبير من طرف الأستاذ. بالإضافة إلى ذلك، الطرائق البيداغوجية المستعملة من قبل المعلم خلال الرحلة الميدانية يمكن ان لا تتناسب مع خيارات المتعلم لأن هذا الاخير يحبذ الاحتفاظ ببعض السيطرة على مساره أثناء التنقل. في هذه الأطروحة، نقدم نمط جديد من التوصيات الخاصة بأنشطة التعلم القائمة من جهة على موقع المتعلمين وعلى المسارات الخاصة بهذه الجولة من جهة اخرى. هذه التقنية تعتمد على التصفية التعاونية للنشاطات السابقة للمتعلمين مع الأخذ بعين الاعتبار كل من نظرة الاستاذ (القيود التعليمية) ومكان تواجد الزائر. لهذا يستند نهجنا على طريقة عمل مستوحات من ذكاء الأسراب لوضع نظام خاص بتنفيذ توصيات النقاط المهمة. زيادة على استخدام المحاكاة لمقارنة الأنواع المختلفة من التوصيات الخاصة بأماكن الزيارة، تم التحقق من عمل نظامنا من خلال تجريب نموذجين لزيارة الحرم الجامعي. Résumé (Français et/ou Anglais) : Résumé: L’apprentissage mobile est devenu un sujet d’intérêt car il implique de nombreux domaines de recherche concernant des contextes d’usages et de technologie complexes. En effet, ce type de formation a été reconnu pour sa capacité à motiver les apprenants car ils peuvent construire leurs propres connaissances en collaborant avec les autres. Dans ce contexte, l’orchestration des scénarios d'apprentissage mobile permet la gestion en temps réel et la contextualisation des activités à réaliser mais ceci engendre des coûts importants d’organisation. En outre, cette organisation réalisée par l'instructeur est peu adaptée aux méthodes d’apprentissage employées pendant la sortie pédagogique car l’apprenant doit pouvoir garder une certaine maîtrise de ses choix et de son parcours. Dans cette thèse, nous présentons un nouveau style de recommandation pour faire une orchestration dynamique des activités d’apprentissage en fonction de la localisation des apprenants et de l’historique de la visite. Cette technique s’appuie sur un filtrage collaboratif exploitant l’activité antérieure des apprenants mais en prenant en compte les contraintes pédagogiques et la localisation. Notre approche s’inspire du mode de fonctionnement de l’intelligence en essaim (algorithme ACO) pour l’implémentation de notre système de recommandation des POIs. Outre les simulations qui ont permis de comparer les différentes variantes de recommandations, la validation de notre système SAMSSP passe par l’expérimentation de nos deux prototypes de visite de campus. Abstract : Mobile learning has become a topic of interest because it involves many areas of research concerning usage contexts and complex technology. Indeed, mobile learning is has been recognized for its ability to motivate learners because they can construct their own knowledge by collaborating with others. In this context, the orchestration of mobile learning allows real-time management and contextualization of activities to do but this results in significant costs of organization. In addition, centralized orchestration is not adapted to the context of our mobile scenario because the learner must be able to keep some control over their choices of learning. In this thesis, we present a new style of recommendation for a dynamic orchestration of learning activities based on the location of the learners and the history of the visit. This technique is based on a collaborative filtering that exploits prior activity of the learners and that respects the educational and location constraints. Our approach is based on the mode of operation of the Swarm Intelligence (ACO algorithm) for the implementation of our system of recommendation. Besides the simulations that are used to compare the different variants of recommendations, the validation of the SAMSSP system goes through the experimentation of the two prototypes of campus visit.
- ItemSensor Technology : Un Clustering centralisé et dynamique basé sur les AGs pour une consommation d'énergie minimale dans les réseaux de capteurs sans fil(2016-01-07) MEKKAOUI Kheireddine; Encadreur: RAHMOUN AbdellatifRésumé (Anglais) : In order to minimize the energy consumption involved by communications in wireless sensor networks, two main contributions are presented in this thesis. The first one, focuses on the analysis of hop lengths, indeed the network lifetime depends strongly on how the data are communicated in the network by using either short-hops or long-hops. The simulations provided show that using an ideal length hops reduces the energy consumption. In the second contribution, the clustering is investigated. The use of clustering has proven to be overwhelming. The problem consists of determining the number of cluster-heads and their distribution in the network to ensure minimal energy consumption and better networks coverage. The Low-Energy Adaptive Clustering Hierarchy algorithm fixes in advance the number of cluster-heads, thus this does not guarantee the coverage of the entire network. In this thesis, we propose a genetic centralized dynamic algorithm (GA)-based clustering approach to optimize the clustering configuration (the number of cluster-heads, their distribution and the cluster-members) to limit node energy consumption and the best coverage. Experiments have been conducted on well-known WSN data benchmark to test the performance of the proposed methodology. The obtained simulation results show that the proposed technique overcomes the Low-Energy Adaptive Clustering Hierarchy algorithm. Keywords: Wireless sensor networks, Clustering, energy efficiency, network lifetime, genetic algorithms. Résumé (Français) : Dans le cadre de la minimisation de la consommation d’énergie produite par les communications au sein d’un réseau de capteurs sans fil, deux contributions sont présentés dans cette thèse. La première porte sur une analyse des longueurs des sauts, en effet la durée de vie du réseau dépend fortement de la manière de communication de données soit par des courts sauts ou des longs sauts. Les simulations présentés à la fin de cette thèse montrent l’efficacité de notre condition présentée, si une fois respectée elle réduit de manière significative la consommation d’énergie. Dans la deuxième contribution, la technique de clustering est utilisée pour réduire la consommation d’énergie, le problème reste à déterminer le nombre des cluster-chefs ainsi que leurs positions dans le réseau pour assurer une consommation minimale d’énergie et une meilleure couverture réseau. Pour surmonter ce problème, les algorithmes génétiques sont utilisés comme outils pour déterminer les paramètres du clustering. Les résultats de simulation, présentés dans cette thèse, montrent que notre approche présentée surmonte les résultats de l’algorithme LEACH. Mots clés : Réseau de capteurs sans fil, Clustering, l’efficacité énergétique, La durée de vie du réseau, les algorithmes génétiques.
- ItemL’apprentissage à base de cas pour la composition des services web(2016-01-21) Hachemi Yamina; Encadreur: Benslimane Sidi MohammedRésumé (Français et/ou Anglais) : Distributed applications converge quickly towards the adoption of a paradigm based on service-oriented architectures (SOA), in which an application is obtained by the composition of a set of services. Web service selection is an indispensable process for web service composition. However, it became a difficult task as many web services are increased on the web and mostly they offer similar functionalities, which service will be the best. User preferences are the key to select and retain only the best services for the composition. In this work, we have proposed a web service composition model based on user preferences. To improve the process of web service composition we propose to combine two techniques of artificial intelligence that are planning and reasoning by memorization. In this work, we use the case-based planning approach with user preferences, which uses successful experiences of the past to solve similar problems. In our approach we integrate user preferences in the phase of selection, adaptation and planning. Our main contributions are a new method of case retrieval, an extended algorithm of adaptation and planning with user preferences. Results obtained offer more than a solution to the user and taking both functional and non-functional requirements.
- ItemEtude et Implémentation des Fonctions de Hachage Cryptographiques Basées sur les Automates Cellulaires(2016-02-11) BELFEDHAL Alaa Eddine; Encadreur: FARAOUN Kamel MohamedRésumé (Français et/ou Anglais) : Les fonctions de hachage cryptographiques sont des primitives importantes pour construire de nombreux systèmes de sécurité tels que les protocoles d'authentification et d'intégrité. Ils ont attiré un intérêt de recherche exceptionnel au cours des dernières années, en particulier après l'augmentation de nombre d'attaques contre les fonctions largement utilisés comme MD5, SHA-1 et RIPEMD. À la lumière de ces attaques, il est nécessaire d'envisager de nouvelles stratégies de désigne et de conception de fonctions de hachage. Parmi les stratégies prometteuses sont celles basées sur les systèmes dynamiques et en particulier sur les automates cellulaires, qui constituent une bonne approche pour construire des fonctions de hachage rapides et sécurisées en raison de leur comportement chaotique et complexe dérivé à partir de règles simples. Dans cette thèse, nous étudions l'utilisation des automates cellulaires comme base de construction de fonctions de hachage et nous proposons deux fonctions de hachage simples et efficaces basées sur les automates cellulaires programmables. La première est une fonction sans clé basée sur les automates cellulaires élémentaires et la deuxième est une fonction avec clé secrète basée sur les automates cellulaires avec mémoire et les automates 2D. Les résultats des tests statistiques ont montré que les fonctions proposées possèdent de bonnes propriétés cryptographiques, telles que la confusion, la diffusion et une grande sensitivité vers les changements d'entrée. En outre, elles peuvent être facilement implémentées via le logiciel ou le matériel, et elles fournissent des performances fonctionnelles très compétitives. Cryptographic hash functions are important blocks to build many cryptographic systems such as authentication and integrity verification protocols. They have recently brought an exceptional research interest, especially after the increasing number of attacks against the widely used functions as MD5, SHA-1 and RIPEMD. Hence, the need to consider new hash functions design and conception strategies is imposed. Among promising strategies are those based on dynamical systems and particulary cellular automata, which presents a good approach to build fast and secure hash functions, due to their chaotic and complex behavior derived from simple rules interaction. In this thesis, we study the use of cellular automata as built base for cryptographic hash functions, and we present two simple and efficient hash functions based on programmable cellular automata. The first proposed hash function is a keyless function built by using elementary cellular automata . The second one is a keyed function with a secrete key, based on cellular automat with memory and 2D cellular automata. The functions are evaluated using several statistical tests, while obtained results demonstrate very admissible cryptographic proprieties such as confusion, diffusion capability and high sensitivity to input changes. Furthermore, the hashing schemes can be easily implemented through software or hardware, and provide very competitive running performances.
- ItemContribution des techniques de datamining dans l’amélioration des systèmes de détection d’intrusion dans les réseaux informatiques(2017-04-19) KHOBZAOUI ABDELKADER; Encadreur: YOUSFATE ABDERRAHMANERésumé (Français et/ou Anglais) : L'utilisation continue des réseaux informatiques et du web dans la société d'aujourd'hui a fait que les ressources de la majorité des systèmes informatiques sont devenus a fortiori des cibles attrayantes d'attaques de plus en plus sophistiquées. De ce fait, tôt ou tard, toute entreprise connectée à internet peut se trouver victime d'une agression électronique à n'importe quel moment et les conséquences d'une telle attaque peuvent être catastrophiques. Les efforts de recherches et de développement consentis en matière de lutte contre de telles menaces, on aboutit à un nombre considérable d'outils et de moyens pour éviter, ou repousser dans le temps les différents types d'attaques. Parmi les plus classiques, on trouve les mécanismes d'authentification, de contrôle d'accès, les protocoles cryptographiques ou encore les pare-feux(Firewalls). Toutefois ces outils, de nature préventive, souffrent d'un nombre considérable d'inévitables vulnérabilités, ne sont pas en mesure de faire face, efficacement, aux différentes attaques qui sont continuellement sophistiquées, diversifiées et adaptées à exploiter les faiblesses des systèmes informatiques dus souvent à des conceptions négligentes ou à des erreurs d'implémentation. D'ou la nécessité d'une nouvelle composante ou approche de sécurité capable de surveiller les activités des applications et des utilisateurs d'un système informatique à fin de détecter ou identifier toute sorte d'intrusion. En effet, c'est la prétention de l'approches "réactive" dite "Détection d'intrusion" introduite, initialement par J. P. Andersson en 1980. La détection d'intrusion, comme son nom l'indique, consiste à repérer des activités anormales ou suspectes. Bace la définie comme étant le processus de surveillance et d'analyse des événements occurrents au sein d'un système informatique dans le but de détecter l'évidence d'un problème de sécurité. Ainsi, la détection d'intrusion permet d'avoir une connaissance sur les tentatives d'intrusion réussies aussi bien que sur celles ayant échouées par le biais de l'analyse des différents fichiers d'audit de sécurité. Ces fichiers d'audit, générés soit par les applications soit par les systèmes d'exploitation ou encore les périphériques réseaux, devient de plus en plus volumineux vue l'utilisation accrue des ordinateur notamment au sein des réseaux dont le débit ne cesse d'accroitre. De ce fait l'intégration des méthodes de fouille de données(Datamining) dans la détection d'intrusion semble être la solution la plus naturelle pour explorer cette importante masse de données à fin d'extraire des caractéristiques, des relation et/ou des règles permettant de détecter des attaques au moment opportun. En effet, l'utilisation des techniques de fouille de données dans la sécurité des systèmes informatiques a suscité, au cours des trois dernières décennies, un intérêt considérable de la part de la communauté des chercheurs et des professionnels de l'informatique et de la fouille données. La fouille de données peut contribuer à l'amélioration des performances des systèmes de détection d'intrusion soit par la construction de modèle précis à partir de l'historique des attaques perpétuées dans le passé en utilisant des techniques d'apprentissage supervisé ou par l'identification des activités malveillantes en utilisant des techniques d'apprentissage non supervisé. Dans le cadre de cette thèse nous nous intéressons à la détection d'intrusion comme approche pour faire face aux différentes activités malveillantes pouvant corrompre la sécurité des systèmes informatiques et plus particulièrement nous mettrons l'accent sur le rôle de la fouille de données dans la promotion et le développement des systèmes de détection d'intrusion.
- ItemOptimisation de la recherche d’information : Protocole de Retrait Privé PIR(2017-04-19) Fahsi Mahmoud; Encadreur: Benslimane Sidi MohamedRésumé (Français et/ou Anglais) : Professional use of cloud health storage around the world implies Information-Retrieval extensions. These developments should help users find what they need among thousands or billions of enterprise documents and reports. However, extensions must offer protection against existing threats, for instance, hackers, server administrators and service providers who use people’s personal data for their own purposes. Indeed, cloud servers maintain traces of user activities and queries, which compromise user security against network hackers. Even cloud servers can use those traces to adapt or personalize their platforms without users’ agreements. For this purpose, we suggest implementing Private Information Retrieval (PIR) protocols to ease the retrieval task and secure it from both servers and hackers. We study the effectiveness of this solution through an evaluation of information retrieval time, recall and precision. The experimental results show that our framework ensures a reasonable and acceptable level of confidentiality for retrieval of data through cloud services.
- ItemEtude et implémentation des techniques de tatouage numérique(2017-04-30) Bekkouche Souad; Encadreur: Faraoun Kamel MohamedRésumé (Français et/ou Anglais) : Nous présentons un schéma de tatouage d'image sécurisé et robuste basé sur le tatouage réversible et la combinaison les transformées DWT-DCT-SVD pour accroître et satisfaire l'intégrité, l'authentification et la confidentialité. Le schéma proposé utilise deux différents types d'images de tatouage: une marque réversible W1, qui est utilisé pour la vérification les propriétés : l’intégrité et l'authentification; et la deuxième marque W2, qui est défini par une image logo pour satisfaire la confidentialité. Notre approche proposée se révèle être robuste, tandis que ses performances sont évaluées par le rapport du signal sur le bruit (SNR), le PSNR, NCC (métrique de corrélation) et le temps d'exécution. La robustesse de cette approche est également évaluée par rapport aux différentes attaques, y compris l’attaque de compression et le bruit Salt & Pepper. Mots clé: sécurité de l’image, tatouage de l’image, Réversible DWT-DCT-SVD.
- «
- 1 (current)
- 2
- 3
- »