- [ VRPG-Doc-Sc] Informatique --- إعلام آلي
Permanent URI for this collection
Browse
Browsing - [ VRPG-Doc-Sc] Informatique --- إعلام آلي by Title
Now showing 1 - 20 of 39
Results Per Page
Sort Options
- ItemA Hierarchical Fusion Strategy in Multibiometric Authentication Systems(2015-05-14) Elmir Youssef; Encadreur: Elberrichi Zakariaالملخص (بالعربية) ملخص : أنظمة التحقق أو التعرف على الهوية متعددة القياسات الحيوية و التي تدمج المعلومات من مصادر حيوية متعددة، استفادت من مساحة أكبر في مجال الأمن وخصوصا في مجال التعرف والتحقق من هوية الأشخاص، و هذا نظرا لقدرتها على التغلب على القيود المفروضة على القياسات الحيوية الأحادية مثل عدم شمولية الصفات الحيوية، التشويش على مستوى أجهزة الاستشعار الحيوية و التغيرات الحيوية الكبيرة لنفس المستعمل ... الخ في هذه الأطروحة، تم البحث في حالة دمج البيانات الحيوية في جميع هذه الظروف من أجل انجاز نظام التحقق و التعرف على الهوية بقياسات حيوية متعددة استنادا الى دمج القياسات الحيوية للوجه، بصمة الاصبع، الصوت، الامضاء أو وريد الأصبع. وتعتمد غالبية أنظمة التحقق من الهوية متعددة القياسات الحيوية المقترحة في أحدث التقنيات الصناعية على أنظمة الدمج أو التكامل في نمط تسلسلي أو متوازي. و عكس ذلك فقد قمنا في هذه الأطروحة بالاعتماد على استكشاف استراتيجية الدمج الهرمية للاستفادة من مزايا النمطين التسلسلي والمتوازي وتحسين معدل التحقق الشامل لنظام التعرف على الهوية. بالإضافة إلى ذلك، تحسين أداء القياس الحيوي هو تحد صعب. في هذه الأطروحة، تم تقديم نظام التعرف و التحقق من الهوية متعدد القياسات الحيوية استنادا على استراتيجية دمج هرمية. وتعتمد هذه الاستراتيجية على مجموعة من عدة صفات حيوية باستخدام دمج هرمي متعدد المستويات للقياسات الحيوية. يشمل دمج القياسات الحيوية متعدد المستويات دمج قبلي مع اختيار الخصائص المثلى و دمج بعدي على أساس أقصى درجات التشابه. الحل المقترح يعزز أداء التعرف الحيوي استنادا إلى اختيار و تحديد خاصية مناسبة مثل تحليل المكون الرئيسي والتحليل الخطي المميز، تماشيا مع انعدام دعم كل مكونات الخصائص لدرجة تحسين الأداء Résumé (Français et/ou Anglais) : Résumé : Les systèmes d'authentification multi-biométriques qui fusionnent les informations de plusieurs sources biométriques, ont gagné plus d'espace dans le domaine de la sécurité et plus précisément dans le domaine de la reconnaissance et de vérification de l'identité des personnes, ce, en raison de leur capacité à surmonter les limites de la biométrie uni-modale comme la non-universalité des traits biométriques, le bruit au niveau des capteurs biométriques et la grande variation intra-utilisateur ... etc. Dans cette thèse, le cas de la fusion de données biométriques est inspecté dans toutes ces circonstances afin de réaliser un système multi-biométrique basé sur la fusion biométrique du visage, l’empreinte digitale, la voix, la signature en ligne ou la veine de doigt. La majorité des systèmes multi-biométriques proposées dans l'état de l'art des systèmes d'authentification sont basés sur la fusion ou l'intégration en mode série ou en mode parallèle, cependant, nous considérons dans cette thèse à explorer la stratégie de fusion hiérarchique pour bénéficier des avantages des deux modes; série et parallèle et améliorer le taux de reconnaissance global du système d'authentification. En outre, l'amélioration de la performance biométrique est une tâche difficile. Dans cette thèse, un système biométrique multimodal basé sur une stratégie de fusion hiérarchique, est présenté. Cette stratégie repose sur une combinaison de plusieurs caractéristiques biométriques en utilisant une hiérarchie de fusion biométrique multi-niveaux. La fusion biométrique multi-niveaux comprend une fusion de pré-classification avec la sélection optimale des caractéristiques et une fusion de post-classification basée sur la similitude de maximum de scores. La solution proposée améliore les performances de reconnaissance biométrique basée sur la sélection et la réduction appropriée des caractéristiques tels que l’analyse principale des composantes et l'analyse discriminante linéaire, autant que pas tous les composants des vecteurs de caractéristiques prennent en charge le degré d'amélioration des performances. Abstract : Multi-biometric authentication systems that fuse information from multiple biometric sources, have gain more space, in the field of security and more precisely in the field of recognition and verification of person identities, this, due to their ability to overcome the limitations of uni-biometrics as the non-universality of the biometric traits, the noise at biometric sensors level and the large intra-user variation ... etc. In this thesis, the case of the fusion of biometric data is inspected in all these circumstances in order to release a multi-biometric system based on biometric fusion of face, fingerprint, voice, online signature or finger vein. The majority of multi- biometric systems proposed in the state of the art of authentication systems are based on the fusion or integration in serial mode or parallel mode, however, this thesis consider to explore hierarchical fusion strategy to benefit from the advantages of both of serial and parallel modes and to improve the overall recognition rate of the authentication system. In addition, biometric performance enhancement is a chalange. In this thesis, a multimodal biometric system based on hierarchical strategy of fusion, is presented. This strategy combines several biometric traits based on multi-level biometric fusion hierarchy. The multi-level biometric fusion includes a prior-to-matching fusion with optimal feature selection and an after-matching fusion based on the similarity of minimum of distances. The proposed solution enhances the overall recognition performances based on feature selection and reduction using principal component analysis (PCA) or Linear discriminant analysis (LDA).
- ItemA highly efficient algorithm for fast motion detection and estimation using parallel processing(2015-11-30) EL BAHRI Mohamed; Encadreur: TALEB Nasreddineملخص المراقبة بالفيديو للمشاهد الحيوية، هي واحدة من أصعب الموضوعات البحثية الحالية في الرؤية الحاسوبية، هذه التكنولوجيا مهمة في مجال مكافحة الإرهاب والجريمة، لضمان السلامة العامة والإدارة الفعالة لحركة المرور على الطرق. هذا العمل هو تصميم نظام فعال للكشف وتقدير الحركة لتتبع الكائن في بيئة معقدة. في المراقبة بالفيديو، والكشف عن الأجسام المتحركة من الفيديو مع تصنيف الكائن، وتتبع الهدف، وتقدير النشاط، في هذه الأطروحة استخدمنا الطرح الخلفية لكشف الحركة. من أجل التعرف على الأشياء، استخدمنا نظام التصنيف على أساس التمثيل المتفرق. ويقترح معالجة أسرع في هذا العمل، وذلك باستخدام أداء بطاقة العرض المرئي. هذا التسارع هو توازي للخوارزمية المستعملة. لتسريع النظام وجعله يعمل في الوقت الحقيقي Résumé (Français) : Résumé La surveillance visuelle des scènes dynamiques, est l'un des difficiles sujets de recherche actuels en vision par ordinateur. C'est une technologie clé pour lutter contre le terrorisme, la criminalité, pour assurer la sécurité publique et pour la gestion efficace de la circulation routière. Ce travail consiste à concevoir un système efficace de détection et d'estimation de mouvement pour le suivi d'objet dans un environnement complexe. Pour la surveillance vidéo, la détection d'objets en mouvement à partir d'une vidéo est importante pour la classification d'objet, suivi de cible, la reconnaissance de l'activité, et la compréhension du comportement. Dans cette thèse nous avons utilisé la soustraction du fond pour la détection du mouvement. Pour pouvoir reconnaitre les objets, nous avons utilisé un système de classification basé sur les représentations parcimonieuses. Une accélération du traitement est proposée dans ce travail, en utilisant les performances des cartes graphiques. Cette accélération consiste à paralléliser l'algorithme "Othogonal Matching Pursuit" pour accélérer le traitement et le rendre opérant en temps-réel. Résumé (Français et/ou Anglais) : Abstract Visual surveillance of dynamic scenes is one of the difficult current research topics in computer vision. It is a key technology in the fight against terrorism, crime, to ensure public safety and to the effective management of road traffic. This work is to design an effective system of detection and motion estimation for object tracking in a complex environment. In video surveillance, detection of moving objects from a video is important for objects classification, target tracking, recognition of the activity, and understanding behavior. In this thesis we used background subtraction for motion detection. In order to recognize objects, we used a classification system based on sparse representation. A faster processing is proposed in this work, using the performance of graphics cards. This acceleration consists to parallelize the "Othogonal Matching Pursuit" algorithm to speed up the processing and make it operate in real-time.
- ItemAlignement des Ontologies dans un Contexte Services Web Sémantiques(2017-10-05) FELLAH Aissa; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Résumé L'augmentation du nombre de services web disponibles a généré un problème technique notable à résoudre, qui est la découverte automatique du service web pertinent. Pour traiter cette problématique, les chercheurs ont combiné les services web avec un modèle sémantique, en particulier l’ontologie qui est un choix du web sémantique, ce qui donnait naissance aux Services Web Sémantiques (SWS). Plusieurs travaux ont discuté la découverte sémantique, lorsque les deux services, requis et offert, utilisent la même ontologie. Nous, pensons qu’une approche basée sur l'utilisation d'une seule ontologie n'est pas pratique, car il est très peu probable que tous les fournisseurs de services et les demandeurs adhèrent à la même ontologie. Très peu d'approches considèrent le cas, lorsque les deux services, requis et offert appartiennent à différentes ontologies du même domaine. Les difficultés inhérentes à l’appariement (matchmaking) de deux services web sémantique, requis et offert dans un contexte multi-ontologie constituent les majeures problématiques étudiées dans cette thèse. Notre première contribution consiste à proposer un cadre général de matchmaking des services web sémantiques dans un contexte multi ontologies, dont le noyau est une nouvelle mesure de similarité sémantique entre concepts de deux ontologies. Dans une seconde proposition, nous avons développé un algorithme d’appariement des services web SAWSDL nommé SAWSDL-MOM, qui est une instanciation de notre cadre général et intégrait un algorithme d’alignement partiel des ontologies. Ce dernier utilise une version améliorée de notre mesure de similarité. Les résultats obtenus en expérimentations sont satisfaisants et encouragent les futurs travaux dans cette piste de recherche. Mots clés : Ontologie, Appariement des Services web Sémantique, Alignement Partiel des Ontologies, Mesure de Similarité. Abstract The increase in the number of available web services, has generated a significant technical problem is automatic discovery of the most relevant web service. To address this problem, the researchers combined web services with semantic model (especially ontologies that are a semantic web choice), which gave birth to the Semantic Web Services (SWS). They sought to show that if the service descriptions and user requirements are annotated with ontology, then the semantic approach to find the appropriate service becomes easier. Several studies have discussed the semantic discovery, when both services offered and required use the same ontology. We believe that an approach based on the use of a single ontology is not practical because it is very unlikely that all the service providers and the applicant adhere to the same ontology. Very few approaches consider the case when the two services required and offered belong to different ontologies of the same domain. The difficulties inherent in the Matchmaking of two semantic web services required and offered in a multiple ontology contexts are the major issues discussed in this thesis. Our first contribution is to provide a general framework for semantic web services matchmaking in multiple ontology contexts, whose core is a new measure of semantic similarity between concepts of two ontologies. In another proposal, we have developed a matching algorithm (matchmaking) for SAWSDL web services named SAWSDL-MOM, that instantiated our general framework and included a partial ontology alignment algorithm. The latter uses an improved version of our similarity measure. The results obtained in experiments are satisfactory and encourage further work in this line of research. Keywords: Ontology, Semantic Web Services Matchmaking, Partial Ontology Alignment, Similarity Measure.
- ItemAnalyse de données massives – Big Data- pour la prédiction(2020-06-24) DJAFRI Laouni; Encadreur: AMAR BENSABER Djamel; Co-Encadreur: ADJOUDJ Rédaالملخص(بالعربية): منذ عدة سنوات ، شهدنا انفجارًا لمصادر جديدة للبيانات المتنوعة ذات الدقة العاليه والكمون المنخفض (المعروف باسم "البيانات الكبيرة"). حيث ظهرت مصادر جديدة واعدة للبيانات ، مثل الشبكة الاجتماعية أو البيانات المتعلقة بالإنترنت. تتكون البيانات الكبيرة من معالجة كميات كبيرة جدًا من البيانات المتنوعة للغاية في الوقت الفعلي وتحليلها. تهتم جميع الشركات، خاصة تلك التي لديها كميات كبيرة من المعلومات وتريد غربلتها لتحسين معرفة العملاء وتحسين حملاتهم. البيانات الكبيرة هي محور رئيسي للتحول الرقمي للاقتصاد ورافعة مهمة للقدرة التنافسية للأعمال. حيث تساعد على فهم العملاء والموردين والشركاء بشكل أفضل من خلال تحليل هذه المعلومات المقدمة من العملاء والمستخدمين ، حيث نأمل في تحسين الخدمات التي تقدمها الشركات. في موضوعنا ، نهتم بتحليل البيانات الكبيرة للتنبؤ بالاحتمالات المستقبلية بمستوى مقبول من الموثوقية ، وذلك لاتخاذ جميع التدابير اللازمة في المستقبل لتجنب الخسائر ، لتحسين الخدمات وكذا اتخاذ القرارات المقترحة والفعالة في أقصر وقت ممكن. ينصب التركيز الرئيسي لهذا الموضوع على الأساليب التحليلية المستخدمة في مجموعات البيانات الكبيرة استنادًا إلى خوارزميات التعلم الآلي. ومن ثم يمكن استخدام التحليلات التنبؤية للبيانات الكبيرة لتوقع الصعوبات ، وتحسين خدمة العملاء ، وتوفير الخدمات الأكثر صلة. Résumé (Français et/ou Anglais) : Depuis plusieurs années, nous assistons à une explosion de nouvelles sources de données diverses à granularité fine et à faible latence (dites « Big Data »). De nouvelles sources de données prometteuses, telles que le web social ou le web des données liées sont apparues. Le «Big Data» consiste à traiter, en temps réel, de très gros volumes de données extrêmement variées et à les analyser. Toutes les entreprises sont concernées, surtout celles qui possèdent de vastes gisements d'informations et souhaitent les passer au crible pour améliorer leur connaissance client et optimiser leurs campagnes. Le Big Data constitue un axe majeur de transformation numérique de l’économie et un levier important de compétitivité des entreprises. Il permet de mieux comprendre les clients, fournisseurs et partenaires. En analysant ces informations fournies par leurs clients et utilisateurs, on espère valoriser les services proposés par les entreprises. Dans notre thème, on s’intéresse à l’analyse du Big Data pour prévoir les probabilités futures avec un niveau de fiabilité acceptable, ainsi pour prendre toutes les dispositions nécessaires à l'avenir afin d'éviter les pertes, d’améliorer les services proposés et la prise de décision efficace dans le plus bref délai. L’objectif principal de ce thème porte sur les méthodes d'analyse utilisées pour les grandes collections de données en se basant sur les algorithmes du Machine Learning. L’analyse prédictive de données massives peut être utilisée pour anticiper les difficultés, pour améliorer le service client et pour proposer les services les plus pertinents.
- ItemAnnotation sémantique des documents(2014-04-13) BENYAHIA KADDA; Encadreur: LEHIRECHE AHMEDالملخص (بالعربية) : عدد الوثائق على الأنترنت يتزايد يوما بعد يوم و عملية البحث أصبحت مهمة صعبة خاصة إذا ما تعلق البحث بالمحتوى. إضافة طبقة دلالية لمحتوى الوثائق هي واحدة من طرق إعطاءها أكثر دلالة، ومن ثم يصبح البحث بالمعنى لا بالمصطلحات. لذلك يجب أن توصف الوثيقة بقائمة من مفاهيم ترتبط بعلاقات معنوية ،وهذا ما يسمى بالشرح الدلالي. في هذه الأطروحة، نقدم منهج للشرح الدلالي للوثائق على شبكة الإنترنت. ويهدف هذا النهج إلى إضافة شروحات للوثيقة من حيث المحتوى والسياق. من حيث المحتوى إذ نقوم بتمثيل محتوى المستند بمفردات يتم ربطها بعد ذلك إلى مفاهيم الأنطولوجيا. و من حيث السياق،اعتمادا على مفهوم أن كل وثيقة علمية تحتوي على عدة وثائق مرجعية أخرى، و بالتالي نقوم بتوريث الوثيقة كل شروحات الوثائق التي ذكرتها كمراجع. في آخر خطوة نقوم بتأكيد صحة كل الشروحات الناتجة عن طريق ازالة التكرارات و التناقضات داخل قاعدة الشروحات الكلمات المفتاحية :الشرح الدلالي ، الفوقية ، البحت عن المعلومات ، أنطلوجيا ، التحقق من الصحة Résumé (Français et/ou Anglais) : Résumé Le nombre des documents sur le web s'accroit de jour en jour, et la localisation des documents est devenue une lourde tâche surtout lorsqu'il s'agit de recherche d'un contenu. Ajouter une couche sémantique aux documents c’est l’une des méthodes qui donne aux documents plus de sémantique, et alors la recherche devient un sens pas un terme. Donc un document doit être décrit par une liste de concepts reliés par des relations, c’est l’annotation sémantique. Dans cette thèse, Nous nous intéressons à une approche d’annotation sémantique des documents pédagogiques sur le web. Cette approche vise à annoter un document par contenu et par contexte ; par contenu, le document sera représenté par des mots clés qui seront ensuite reliés à des concepts d‘ontologie et par contexte, puisqu’un document cite généralement d’autres documents, nous propageons les annotations des références pour annoter le document citant. Nous appliquerons ensuite un module de validation qui consiste à rendre nos annotations cohérentes. Mots clés : annotation sémantique, métadonnées, recherche d’information, Ontologie, validation Abstract The number of documents on the web is growing day by day, and the location of the documents has become a difficult task especially if it comes to looking for content. Add a semantic layer to words of documents is one of the methods giving more semantics to the documents, and then the research becomes a meaningful, not just words. So a document must be described by a list of concepts linked by relations, it is the semantic annotation. In this thesis, we present a semantic annotation approach of pedagogic documents on the web. This approach aims to annotate a document by content and context, by content we represents documents by keywords that are connected to the ontology’s concepts. By context, as documents cite generally other documents, we propagate the annotations of references to annotate the citing document. We then apply a validation module, which consists to make our annotations consistent Key words: Semantic annotation, metadata, information retrieval, ontology, validation.
- ItemApprentissage automatique pour une classification des images basée sur les descripteurs(2020-12-16) GAFOUR Yacine; Encadreur: BERRABAH Djamel; Co-Encadreur: GAFOUR AbdelkaderRésumé (en Français) : Le développement rapide des appareils numériques (téléphones portables, cameras etc.) a mené à une augmentation explosive des données multimédia (images et vidéos) de haute qualité à gérer. L’énorme quantité de ces données doit être interprétées et récupérées par les grandes entreprises. En effet, elles ont besoin de méthodes efficaces pour exploiter le contenu de ces données et le transformer en connaissances précieuses afin d’avoir une compréhension visuelle rapide des images et des vidéos. Dans cette thèse, nous définissons plusieurs buts qui sont intéressants pour comprendre le contenu visuel des images afin de réaliser les tâches de la classification d’images et la reconnaissance d’objets. Par conséquent, nous proposons des modèles et des approches dédiées à ces taches en utilisant l’apprentissage automatique et en se basant sur des descripteurs représentatifs du contenu de l'image. Ces descripteurs sont obtenus par le processus d'extraction de caractéristiques à partir de l'image. Dans ce contexte, nous présentons les deux approches suivantes. Dans la première approche, nous proposons un nouveau modèle pour améliorer les performances du descripteur A-KAZE pour la classification des images. Nous établissons d'abord la connexion entre le descripteur A-KAZE et le modèle Bag of features (BoF). Ensuite, nous adoptons le Spatial Pyramid Matching (SPM) pour introduire des informations spatiales durant l’exploitation du descripteur A-KAZE afin de renforcer sa robustesse. Nous présentons dans la seconde approche un nouveau modèle pour la reconnaissance faciale. Cette approche est basée sur un nouvel ensemble de variantes du descripteur LBP que nous avons proposé et que nous avons appelé Honeycomb-Local Binary Pattern (Ho-LBP). En effet, la présentation des images en utilisant un ensemble de variantes du descripteur Ho-LBP aide le classificateur à mieux apprendre. De plus, ces variantes sont combinées pour améliorer les performances du processus de la reconnaissance faciale. Les mots clés : Apprentissage automatique, descripteurs, classification des images, reconnaissance faciale. Abstract (en Anglais) : The rapid development of digital devices (cell phones, cameras, etc.) has led to an explosive increase in high quality multimedia data (images and videos) to be managed. The enormous amount of this data must be interpreted and retrieved by large companies. Indeed, they need efficient methods to exploit the content of this data and transform it into valuable knowledge in order to have a rapid visual understanding of images and videos. In this thesis, we define several goals that are interesting for understanding the visual content of images in order to perform the tasks of image classification and object recognition. Therefore, we propose models and approaches dedicated to these tasks using machine learning and based on descriptors representative of the content of the image. These descriptors are obtained by the process of extracting the characteristics of the image. In this context, we present the following two approaches. In the first approach, we propose a new model to improve the performance of the A-KAZE descriptor for image classification. We first establish the connection between the A-KAZE descriptor and the Bag of features (BoF) model. Then, we adopt the Spatial Pyramid Matching (SPM) to introduce spatial information during the exploitation of the A-KAZE descriptor in order to reinforce its robustness. We present in the second approach a new model for facial recognition. This approach is based on a new set of variants of the LBP descriptor that we have proposed and named Honeycomb-Local Binary Pattern (Ho-LBP). Indeed, presenting the images using a set of variants of the Ho-LBP descriptor helps the classifier to learn better. In addition, these variants are combined to improve the performance of the facial recognition process. Keywords: Machine learning, descriptors, image classification, facial recognition.
- ItemApproches Méta-Heuristiques pour les Tâches de Classification(2018-06-18) BIDI NORIA; Encadreur: ELBERRICHI ZAKARIARésumé (Français ) : Dans l’exploration de données, de nombreuses techniques sont utilisées pour extraire des informations utiles. L’une de ces techniques est la classification, la classification de volume massif de données est une tâche complexe en raison entre autres la présence d’attributs redondants et non pertinents. Pour obtenir les meilleurs modèles de classification, la sélection d’attributs est devenue une étape essentielle du prétraitement des données. Dans cette thèse, nous présentons deux nouveaux algorithmes adaptatifs appelés FSPeSOA (feature selection penguins search optimization algorithm) et FS-SLOA (feature selection seven spot ladybird optimization algorithm) qui sont des méthodes de sélection méta-heuristiques. Ils seront combinés avec différents classificateurs pour trouver les meilleures attributs, qui atteignent la plus grande précision dans la classification. Ensuite, nous étudions et comparons l’hybridation de plusieurs méthodes de filtrages et de méta-heuristiques, y compris la sélection d’attributs basée sur les corrélations (CFS), l’analyse de composantes principales (PCA) et les statistiques X2 (CHI) comme méthodes de filtrages et l’algorithme génétique (GA), FS-PeSOA et FS-SLOA comme méthodes méta-heuristiques. Pour l’évaluation de chaque approche, nous explorons l’utilisation de la validation croisée 5 fois, de la validation croisée 10 fois et la division simple de donné (90% pour les données d’apprentissage et 10% pour les données de test). Enfin, nous présentons l’algorithme SLOA pour découvrir les règles de classification, cet algorithme suit l’approche du Michigan. Nos approches proposées ont été expérimentées sur des ensembles de données de référence (Wisconsin Breast Cancer, Diabète Pima, Mammographie Mass, Dermatologie, Colon Tumor et Cancer de la Prostate). Les résultats expérimentaux prouvent que les précisions de classification sont puissantes pour les différents ensembles de données. Résumé (Anglais) : In data mining, many techniques are used to extract useful information. One of these techniques is the classification, the classification of the massive volume of data is a complex task due to the presence of redundant and irrelevant features. To obtain the best classification models, feature selection became an essential data pre-processing step. In this thesis, we first present two new adaptive algorithms called FS-PeSOA (Feature Selection Penguins Search Optimization Algorithm) and FS-SLOA (Feature Selection Seven Spot Ladybird Optimization Algorithm) which are meta-heuristics feature selection methods, they will be combined with different classifiers to find the best subset features, which achieve the highest accuracy in classification. Then, we investigate and compare the hybridization of several filters and meta-heuristics methods, including correlations based feature selection (CFS), principal component analysis (PCA) and the X2 statistics (CHI) as part of filters methods and the genetic algorithm (GA), FS-PeSOA and FS-SLOA as part for meta-heuristics methods. For the evaluation of each approach, we explore the use of 5-fold cross validation, 10-fold cross validation and simple split data (90% for train data and 10% for test data). Finally, we present SLOA algorithm to discover classification rules, this algorithm follows Michigan’s approach. Our proposed approaches have been experimented on well known benchmark datasets (Wisconsin Breast Cancer, Pima Diabetes, Mammographic Mass, Dermatology, Colon Tumor and Prostate Cancer data sets). Experimental results prove that the classification accuracies are powerful for different data sets. Keywords: Data Mining, Classification, Feature Selection, Meta-heuristics, Penguins Search Optimization Algorithm, Seven Spot Ladybird Optimization Algorithm, KNN, SVM, NB.
- ItemConception des entrepôts de données : Evaluation des besoins flexibles(2018-07-01) LARBI Abdelmadjid; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Abstract The data warehouse design is very different from database one. In addition, the needs of warehouse users are only as clear as those of OLTP users. Rewriting Requêtes has attracted the attention of many researchers because it is related to several data management issues: query optimization, data integration, data warehouse design. To answer the evaluation and optimization problems of requests in order to specify the needs of the decision-makers (traditional requests) especially in cases where these needs are vague or include inaccurate or indeterminate parts (flexible requests). Fuzzy logic or expert systems or even ontologies can be used to remove indeterminacy. The data source inaccuracies (production base) of decision-making systems can lead to erroneous OLAP analysis. Therefore, the extracted data quality (errors, inaccuracy, etc.) and the precise assessment of the decision-maker needs (Unambiguity, uncertainty and inaccuracy) before choosing the production base has become in the latter years a major focus of decision-making research in general and in the decisional system design in particular. The data imperfections in decision-making systems are due to many causes such as the difficulty of having models close to reality or instruments limitations and acquisition processes. In addition, an inadequate representation of the collected information can also be a source of data quality degradation, the representation becoming too remote from the real world object that we wish to model. The inaccuracy may be due to the needs expression ambiguity of the decision maker. Starting from a misinterpretation of requirements, all DW designs and subsequent OLAP analyzes will be erroneous. As a result, many studies have focused on taking into account vague data in Information Systems but few studies have studied this case in data warehouses. This thesis work comes, along with other works, to fill the void in this context and to initiate a reflection around this problematic, through some contributions allowing the vagueness evaluation of the decisional needs based on requests and leading to the improvement of the data warehouse design quality and the relevance of the OLAP analysis thereafter. Keywords: Imprecision, decisional requirement, data warehouse, conception, expert system, fuzzy ontology.
- ItemConception et développement d’outil d’aide à la décision pour la gestion de la maintenance et la production dans le cadre des énergies renouvelables(2022-01-30) ALLAL Anis; Encadreur: BENSLIMANE Sidi Mohamedالملخص(بالعربية): من المتوقع أن تكون طاقة الرياح البحرية المصدر الأول للطاقة في المستقبل بفضل مزاياها العديدة. ومع ذلك ، تعتبر صيانتها نشاطًا معقدًا ومكلفًا ، مما يجذب انتباه الباحثين والصناعيين بشكل متزايد. تقترح في هذه الأطروحة نهج التحسين محاكاة لتخطيط التوجيه والصيانة لمزارع الرياح البحرية من أجل تقليل االتكاليف مع الحفاظ على التوفر العالي لتوربينات الرياح. يتم تقديم النمذجة والمحاكاة القائمة على عوامل متعددة للتعامل مع تعقيد النظام. يتم استخدام خوارزمية (ACS) لتحسين توجيه مهام الصيانة. من أجل جعل النهج المقترح أكثر واقعية ، أخذنا في الاعتبار العديد من المعلمات والقيود مثل الظروف الجوية وتكلفة الموارد ومدة الصيانة. تم تجربة العديد من السيناريوهات لإثبات كفاءة النهج خلال دورة حياة المزرعة بأكملها. تظهر النتائج التي تم الحصول عليها تحسن التكلفة وتوليد الطاقة وتوافر التوربينات. Résumé (Anglais) : Offshore wind energy is expected to be the first source of energy in the future thanks to its numerous advantages. However, its maintenance is a complex and costly activity, which is increasingly attracting the attention of researchers and industrials. This thesis proposes a simulation-optimization approach for the routing and the scheduling of maintenance for offshore wind farms in order to minimize cost while keeping a high availability of wind turbines. A multi-agent based modeling and simulation is introduced to deal with the complexity of the system. Ant Colony System (ACS) algorithm is used to optimize maintenance tasks routing. In order to make the proposed approach more realistic, we have considered several parameters and constraints such as weather conditions, resources cost, maintenance duration. Several scenarios are experimented to demonstrate the approach efficiency during all the life cycle of the farm. The obtained results show the improvement of cost, energy generation and turbine availability. Résumé (Français) : L'énergie éolienne offshore est supposé devenir la première source d'énergie à l'avenir grâce à ses nombreux avantages. Cependant, sa maintenance est une activité complexe et coûteuse, qui attire de plus en plus l'attention des chercheurs et des industriels. Cette thèse propose une approche de simulation-optimisation pour le routage et la planification de la maintenance des parcs éoliens offshore afin de minimiser les coûts tout en gardant une haute disponibilité des éoliennes. Une modélisation et une simulation multi-agents sont introduites pour gérer la complexité du système. L'algorithme AntColony System (ACS) est utilisé pour optimiser le routage des tâches de maintenance. Afin de rendre l'approche proposée plus réaliste, nous avons considéré plusieurs paramètres et contraintes tels que les conditions météorologiques, le coût des ressources et la durée de la maintenance. Plusieurs scénarios sont expérimentés pour démontrer l'efficacité de l'approche pendant tout le cycle de vie du parc. Les résultats obtenus montrent une amélioration du coût, de la production d'énergie et de la disponibilité des éoliennes.
- ItemContribution à l’optimisation d’ordonnancement de workflows dans un environnement cloud(2021-01-03) BENHAMMOUDA Mohammed; Encadreur: MALKI MimounRésumé (en Français) : Le cloud computing, initialement développée à partir de l'informatique en grille (grid computing), de l'informatique distribuée et de l'informatique parallèle, consiste en un ensemble d'ordinateurs virtuels interconnectés et utilisés dynamiquement, présentés sous forme de ressources informatiques unifiées basées sur des accords de niveau de service (SLA) établis par négociation entre le fournisseur de services, et les consommateurs, il est de plus en plus considéré comme un nouveau moyen d’utiliser les services informatiques, de stockage et de réseau à la demande de manière transparente et efficace. Plusieurs applications scientifiques dans de nombreux domaines, tels que la bioinformatique et l'astronomie, impliquent généralement de nombreuses tâches contraintes par des relations de priorité. Ces applications sont souvent exprimées sous forme de flux de travail, appelé aussi workflow, une série d'étapes de traitement connexes (tâches), où chaque étape prend des données en entrée, effectue un traitement et produit des données en sortie qui seront transmises aux étapes de traitement suivantes. Malheureusement, les services de cloud computing ne sont pas gratuits, un contrat d'accord de niveau de service (Service Level Agreement) signé entre le fournisseur et l'utilisateur fixera le prix à payer pour les ressources louées dans un modèle de paiement à l'utilisation. La planification des tâches est une étape importante lors de l'exécution d'un workflow dans un environnement de cloud computing. L’algorithme de planification doit trouver une répartition efficace des tâches du workflow de l’utilisateur sur le pool de ressources du fournisseur, en minimisant le temps nécessaire à l’exécution des workflow de l’utilisateur et en optimisant la disponibilité des ressources du cloud. En outre, la planification des tâches dans un environnement de cloud computing est un problème NP-difficile en général, et les algorithmes d'optimisation heuristiques sont largement utilisés pour la résolution de ce genre de problèmes. Un algorithme heuristique est utilisé pour trouver une solution sous-optimale du problème. Dans cette thèse, nous abordons le problème de la planification des workflows sur une infrastructure hétérogène de cloud computing, et une approche basée sur la parallélisation de l’algorithme de recuit simulé appelé PSA (Parallel Simulated Annealing) implémenté sur une architecture GPU est proposée. Sa mission est de planifier les tâches de chaque workflow destinée à utiliser les ressources de l’environnement cloud. La planification consiste à affecter chaque tâche du workflow à un processeur donné pour son exécution. Le processus doit être effectué en respectant la contrainte de précédence qui consiste à respecter l'ordre des tâches dans le workflow en fonction de leurs interdépendances, tout en minimisant le temps de calcul (makespan) qui a un impact sur la consommation d'énergie et le coût dans le cas où l'utilisateur dispose d'un budget limité. Les mots clés : Cloud computing, Planification des tâches, Workflow, Flux de travail, Gpu, Recuit simulée. Abstract (en Anglais) : Cloud computing, initially developed from grid computing, distributed computing, and parallel computing, consists of a set of interconnected and dynamically used virtual machines presented as computing resources. service-based level agreements (SLAs) established by negotiation between the service provider and consumers, it is increasingly seen as a new way to use IT, storage, and network services for request in a transparent and efficient way. Many scientific applications in many fields, such as bioinformatics and astronomy, usually involve many tasks constrained by priority relationships. These applications are often expressed as a workflow, also called a workflow, a series of related processing steps (tasks), where each step takes input data, performs processing, and outputs data that will be passed to users. Unfortunately, cloud services are not free, a service level agreement signed between the provider and the user will set the price to pay for the leased resources in a payment model use. Scheduling tasks is an important step when running a workflow in a cloud computing environment. The scheduling algorithm must find an efficient allocation of the user's workflow tasks to the provider's resource pool, minimizing the time required to execute the user's workflow and maximizing the availability of cloud resources. In addition, scheduling tasks in a cloud computing environment is an NP-hard problem in general, and heuristic optimization algorithms are widely used for solving such problems. A heuristic algorithm is used to find a sub-optimal solution of the problem. In this thesis, we address the problem of planning workflows on a heterogeneous cloud computing infrastructure, and an approach based on the parallelization of the simulated annealing algorithm called PSA (Parallel Simulated Annealing) implemented on a GPU architecture is proposed. Its mission is to plan the tasks of each workflow intended to use the resources of the cloud environment. Planning involves assigning each task in the workflow to a given processor for execution. The process must be carried out respecting the precedence constraint of respecting the order of tasks in the workflow according to their interdependencies, while minimizing the computing time (makespan) that has an impact on the cost in the case where the user has a limited budget. Keywords : Cloud Computing, Task Scheduling, Workflow, Gpu, Simulated Annealing
- ItemContribution des techniques de datamining dans l’amélioration des systèmes de détection d’intrusion dans les réseaux informatiques(2017-04-19) KHOBZAOUI ABDELKADER; Encadreur: YOUSFATE ABDERRAHMANERésumé (Français et/ou Anglais) : L'utilisation continue des réseaux informatiques et du web dans la société d'aujourd'hui a fait que les ressources de la majorité des systèmes informatiques sont devenus a fortiori des cibles attrayantes d'attaques de plus en plus sophistiquées. De ce fait, tôt ou tard, toute entreprise connectée à internet peut se trouver victime d'une agression électronique à n'importe quel moment et les conséquences d'une telle attaque peuvent être catastrophiques. Les efforts de recherches et de développement consentis en matière de lutte contre de telles menaces, on aboutit à un nombre considérable d'outils et de moyens pour éviter, ou repousser dans le temps les différents types d'attaques. Parmi les plus classiques, on trouve les mécanismes d'authentification, de contrôle d'accès, les protocoles cryptographiques ou encore les pare-feux(Firewalls). Toutefois ces outils, de nature préventive, souffrent d'un nombre considérable d'inévitables vulnérabilités, ne sont pas en mesure de faire face, efficacement, aux différentes attaques qui sont continuellement sophistiquées, diversifiées et adaptées à exploiter les faiblesses des systèmes informatiques dus souvent à des conceptions négligentes ou à des erreurs d'implémentation. D'ou la nécessité d'une nouvelle composante ou approche de sécurité capable de surveiller les activités des applications et des utilisateurs d'un système informatique à fin de détecter ou identifier toute sorte d'intrusion. En effet, c'est la prétention de l'approches "réactive" dite "Détection d'intrusion" introduite, initialement par J. P. Andersson en 1980. La détection d'intrusion, comme son nom l'indique, consiste à repérer des activités anormales ou suspectes. Bace la définie comme étant le processus de surveillance et d'analyse des événements occurrents au sein d'un système informatique dans le but de détecter l'évidence d'un problème de sécurité. Ainsi, la détection d'intrusion permet d'avoir une connaissance sur les tentatives d'intrusion réussies aussi bien que sur celles ayant échouées par le biais de l'analyse des différents fichiers d'audit de sécurité. Ces fichiers d'audit, générés soit par les applications soit par les systèmes d'exploitation ou encore les périphériques réseaux, devient de plus en plus volumineux vue l'utilisation accrue des ordinateur notamment au sein des réseaux dont le débit ne cesse d'accroitre. De ce fait l'intégration des méthodes de fouille de données(Datamining) dans la détection d'intrusion semble être la solution la plus naturelle pour explorer cette importante masse de données à fin d'extraire des caractéristiques, des relation et/ou des règles permettant de détecter des attaques au moment opportun. En effet, l'utilisation des techniques de fouille de données dans la sécurité des systèmes informatiques a suscité, au cours des trois dernières décennies, un intérêt considérable de la part de la communauté des chercheurs et des professionnels de l'informatique et de la fouille données. La fouille de données peut contribuer à l'amélioration des performances des systèmes de détection d'intrusion soit par la construction de modèle précis à partir de l'historique des attaques perpétuées dans le passé en utilisant des techniques d'apprentissage supervisé ou par l'identification des activités malveillantes en utilisant des techniques d'apprentissage non supervisé. Dans le cadre de cette thèse nous nous intéressons à la détection d'intrusion comme approche pour faire face aux différentes activités malveillantes pouvant corrompre la sécurité des systèmes informatiques et plus particulièrement nous mettrons l'accent sur le rôle de la fouille de données dans la promotion et le développement des systèmes de détection d'intrusion.
- ItemDécouverte des services web : approche basée sur les préférences des utilisateurs(2015-06-10) EL BOUHISSI HOUDA; Encadreur: MALKI MimounRésumé (Français et/ou Anglais) : Il y a eu un intérêt croissant pour les Services Web Sémantiques (SWS) comme une solution proposée pour faciliter la découverte automatique, la composition et le déploiement des Services Web. Pour profiter pleinement des avantages de cette technologie, un processus de ré-ingénierie des Services Web vers les Services Web Sémantiques est nécessaire. Malgré son importance, il n'y a que peu de travaux qui ont traité le problème de ré-ingénierie des Services Web vers les Services Web Sémantiques. La plupart de ces travaux n'ont pas traité les particularités des Services Web. Aussi la découverte des Services Web est l'un des défis majeurs du paradigme émergent SOA (Service Oriented Architecture). La majorité des travaux existants proposent une recherche à base de mots clés. Cependant, ce type d'approche ne permet pas de récupérer certains Services Web susceptibles de satisfaire les besoins des utilisateurs. L'objectif de cette thèse est double : d'une part, proposer une ré-ingénierie de Services Web vers les Services Web Sémantiques, et d'autre part, proposer une approche de découverte des Services Web basée sur les préférences des utilisateurs. Notre approche de découverte positionne la découverte des services dans une perspective centrée buts ("Goals") dans laquelle les services sont décrits en termes d'exigences qu'ils permettent de satisfaire. Nos contributions utilisent l'ontologie de service WSMO comme modèle sémantique de spécification des Services Web. Nous avons abordé ces problématiques à la fois d'un point de vue théorique et pratique. En plus de la proposition d'une ré-ingénierie de services et de la découverte des services pertinents, nous avons implémenté ces deux concepts en développant deux prototypes. WSDL2WSMO-LITE permet de convertir un fichier WSDL en des éléments de l'ontologie de services WSMO-LITE. Pour la découverte, nous avons développé un cadre de travail complet pour la recherche des Services Web susceptibles de satisfaire les exigences des utilisateurs. Enfin, pour valider notre démarche, nous avons appliqué nos approches à des cas d'études réels.
- ItemDécouverte et Réparation des Alignements d’Ontologies dans le Web de Données Liées(2022-10-26) ATIG Yahia; Encadreur: BOUCHIHA Djelloul; Co-Encadreur: MALKI Mimounالملخص (بالعربية) : أدى انتشار تطور الأنطولوجيات إلى ظهور مستودعات الأنطولوجيا لتخزين ومشاركة الأنطولوجيات و المطابقات. لا تعتمد فائدة هذه المستودعات على جودة الأنطولوجيات فحسب، بل تعتمد أيضًا على جودة المطابقة بينها. في الواقع، يمكن أن يؤثر تطور الأنطولوجيات بسبب التغييرات في مجالات المعرفة على المطابقة بينها ويجعلها غير صالحة للإستعمال. لذلك، يجب تطوير المطابقات و صيانتها لمواكبة التغيير في الأنطولوجيا. بينما التحدي الرئيسي لأساليب تطوير المطابقة بعد التغيير الأنطولوجي هو الحفاظ على اتساق المطابقة بعد تطبيق التغيير، فإن الهدف من هذا العمل هو اتخاذ خطوة إلى الأمام من خلال النظر في تطوير المطابقة في ظل التغييرات الأنطولوجية مع مراعاة مبدأ التحفظ. تقدم هذه الأطروحة مساهمتين رئيسيتين: مساهمة منهجية وتحليل معمق لأساليب تطوير المطابقة. فيما يتعلق بالمساهمة المنهجية ، تُعرف الأطروحة رياضيًا مشكلة تحفظ المطابقة في ظل التغيير الأنطولوجي. هذه المشكلة تُقسم بعد ذلك إلى مشكلتين فرعيتين. تتعلق الأولى بكشف انتهاكات التحفظ، وهنا تقترح الأطروحة نمطين حسب نوع التغيير الأنطولوجي. و تتعلق الثانية بإصلاح المطابقة، وهنا يتم استعمال خوارزمية مجموعة الضرب لنظرية التشخيص و تكييفها لسياق المحافظة على المطابقة في ظل التغيير الأنطولوجي. أدى تحليل الأدبيات إلى تصنيف طرق تطوير المطابقة وفقًا لفئتين. بينما يحسب الصنف الأول مطابقة جديدة إبتداءا من الصفر باستخدام تقنيات مطابقة الأنطولوجيات، يعيد الصنف الثاني استخدام المطابقة القديمة قدر الإمكان من خلال تكييفها مع التغيير الأنطولوجي. على أساس هذا التصنيف، تتموضع هذه الأطروحة ضمن الفئة الثانية من الأعمال لتكييف المطابقات وفقًا للمتطلبات الأنطولوجية الجديدة. أخيرًا، توضح التجربة التي تم إجراؤها إمكانية التطبيق العملي للنهج المقترح من ناحية، ومن ناحية أخرى ، فإن طرق مطابقة الأنطولوجيات لا تتوافق بشكل جيد مع مشكلة تحفظ المطابقة في ظل التغيير الأنطولوجي وتقترح التجربة العمل الحالي كعنصر إضافي لطرق تطوير المطابقة. الكلمات المفتاحية : انتهاكات مبدأ التحفظ، تطور المطابقة ، التغيير الأنطولوجي، إصلاح المطابقة. Résumé (Anglais) : The proliferation of ontology development has led to the appearance of ontology repositories to store and share ontologies and alignments. The usefulness of these repositories depends not only on ontologies quality, but also on alignments between them. Indeed, the evolution of ontologies following changes in their knowledge domains may affect and make obsolete the alignment between them. Thus, alignments must be evolved and maintained in order to keep up with the change in ontologies. While the main challenge for alignment evolution under ontology change methods is to maintain the alignment consistency after applying the change, the objective of this work is to take a step forward by considering the alignment evolution under ontological changes according to the conservativity principle. Two major contributions are brought by this dissertation: a methodology knowledge contribution and an in-depth analysis of the alignment evolution approaches. About the methodological contribution, the dissertation formally defines the alignment conservativity under the ontological change problem. This problem is then refined into two sub-problems. The first concerns the detection of conservativity violations, and here the dissertation proposes two patterns according to the type of ontological change. The second concerns the repair of the alignment, and there the Hitting set algorithm of diagnosis theory has been adapted for the alignment conservativity under the ontological change context. The literature analysis has led to classify the alignment evolution methods according to two categories. While the first calculates a new alignment from scratch by using ontology matching techniques, the second one reuses as much as possible the old alignment by adapting it to the ontological change. Based on this classification, this dissertation is positioned under the second works class to adapt the alignment according to new ontological requirements. Finally, the conducted experiment demonstrates on the one hand the practical applicability of the proposed approach, and on the other hand that ontology matching methods do not fit well for the alignment conservativity under the ontological change problem and suggests the current proposal as an add-on component to alignment evolution methods. Keywords. Conservativity Principle Violations, Alignment Evolution, Ontological Change, Alignment Repair. Résumé (Français) : La prolifération du développement d'ontologies a conduit à l'apparition d'entrepôts d'ontologies pour stocker et partager des ontologies et des alignements. L'utilité de ces entrepôts dépend non seulement de la qualité des ontologies, mais aussi des alignements entre elles. En effet, l'évolution des ontologies suite aux changements dans leurs domaines de connaissances peut affecter et rendre obsolète l'alignement entre elles. Par conséquent, les alignements doivent être évolués et maintenus pour suivre le changement dans les ontologies. Bien que le principal défi pour les méthodes d'évolution d'alignement suivant le changement ontologique est de maintenir la consistance de l'alignement après l'application du changement, l'objectif de ce travail est de faire un pas en avant en considérant l'évolution de l'alignement sous les changements ontologiques par rapport au principe de la conservativité. Deux contributions majeures sont apportées par cette thèse: un apport méthodologique et une analyse approfondie des approches d'évolution d'alignement. À propos de la contribution méthodologique, la thèse définit formellement le problème de la conservativité de l'alignement sous le changement ontologique. Ce problème est ensuite raffiné en deux sous-problèmes. Le premier concerne la détection des violations de la conservativité, et ici la thèse propose deux paternes selon le type de changement ontologique. Le deuxième concerne la réparation de l'alignement, et là l'algorithme Hitting Set de la théorie du diagnostic est adapté pour le contexte de la conservativité de l'alignement sous le changement ontologique. L'analyse de la littérature a abouti à classifier les méthodes d'évolution d'alignement selon deux catégories. Alors que la première calcule un nouvel alignement à partir de zéro en utilisant des techniques de matching d'ontologies, la deuxième catégorie réutilise autant que possible l'ancien alignement en l'adaptant au changement ontologique. Sur la base de cette classification, cette thèse se positionne sous la deuxième classe de travaux pour adapter l'alignement en fonction des nouvelles exigences ontologiques. Enfin, l'expérimentation démontre d'une part l'applicabilité pratique de l'approche proposée, et d'autre part que les méthodes de matching d'ontologies ne correspondent pas bien au problème de la conservativité de l'alignement sous le changement ontologique et suggère la proposition actuelle comme un composant plug-in aux méthodes d'évolution de l'alignement. Mots clés. Violations du Principe de la Conservativité, Evolution de l'Alignement, Changement Ontologique, Réparation de l'Alignement.
- ItemEtude et Implémentation des Fonctions de Hachage Cryptographiques Basées sur les Automates Cellulaires(2016-02-11) BELFEDHAL Alaa Eddine; Encadreur: FARAOUN Kamel MohamedRésumé (Français et/ou Anglais) : Les fonctions de hachage cryptographiques sont des primitives importantes pour construire de nombreux systèmes de sécurité tels que les protocoles d'authentification et d'intégrité. Ils ont attiré un intérêt de recherche exceptionnel au cours des dernières années, en particulier après l'augmentation de nombre d'attaques contre les fonctions largement utilisés comme MD5, SHA-1 et RIPEMD. À la lumière de ces attaques, il est nécessaire d'envisager de nouvelles stratégies de désigne et de conception de fonctions de hachage. Parmi les stratégies prometteuses sont celles basées sur les systèmes dynamiques et en particulier sur les automates cellulaires, qui constituent une bonne approche pour construire des fonctions de hachage rapides et sécurisées en raison de leur comportement chaotique et complexe dérivé à partir de règles simples. Dans cette thèse, nous étudions l'utilisation des automates cellulaires comme base de construction de fonctions de hachage et nous proposons deux fonctions de hachage simples et efficaces basées sur les automates cellulaires programmables. La première est une fonction sans clé basée sur les automates cellulaires élémentaires et la deuxième est une fonction avec clé secrète basée sur les automates cellulaires avec mémoire et les automates 2D. Les résultats des tests statistiques ont montré que les fonctions proposées possèdent de bonnes propriétés cryptographiques, telles que la confusion, la diffusion et une grande sensitivité vers les changements d'entrée. En outre, elles peuvent être facilement implémentées via le logiciel ou le matériel, et elles fournissent des performances fonctionnelles très compétitives. Cryptographic hash functions are important blocks to build many cryptographic systems such as authentication and integrity verification protocols. They have recently brought an exceptional research interest, especially after the increasing number of attacks against the widely used functions as MD5, SHA-1 and RIPEMD. Hence, the need to consider new hash functions design and conception strategies is imposed. Among promising strategies are those based on dynamical systems and particulary cellular automata, which presents a good approach to build fast and secure hash functions, due to their chaotic and complex behavior derived from simple rules interaction. In this thesis, we study the use of cellular automata as built base for cryptographic hash functions, and we present two simple and efficient hash functions based on programmable cellular automata. The first proposed hash function is a keyless function built by using elementary cellular automata . The second one is a keyed function with a secrete key, based on cellular automat with memory and 2D cellular automata. The functions are evaluated using several statistical tests, while obtained results demonstrate very admissible cryptographic proprieties such as confusion, diffusion capability and high sensitivity to input changes. Furthermore, the hashing schemes can be easily implemented through software or hardware, and provide very competitive running performances.
- ItemEtude et implémentation des techniques de tatouage numérique(2017-04-30) Bekkouche Souad; Encadreur: Faraoun Kamel MohamedRésumé (Français et/ou Anglais) : Nous présentons un schéma de tatouage d'image sécurisé et robuste basé sur le tatouage réversible et la combinaison les transformées DWT-DCT-SVD pour accroître et satisfaire l'intégrité, l'authentification et la confidentialité. Le schéma proposé utilise deux différents types d'images de tatouage: une marque réversible W1, qui est utilisé pour la vérification les propriétés : l’intégrité et l'authentification; et la deuxième marque W2, qui est défini par une image logo pour satisfaire la confidentialité. Notre approche proposée se révèle être robuste, tandis que ses performances sont évaluées par le rapport du signal sur le bruit (SNR), le PSNR, NCC (métrique de corrélation) et le temps d'exécution. La robustesse de cette approche est également évaluée par rapport aux différentes attaques, y compris l’attaque de compression et le bruit Salt & Pepper. Mots clé: sécurité de l’image, tatouage de l’image, Réversible DWT-DCT-SVD.
- ItemEtude et Implémentation et Intégration de L’algorithme De Chiffrement AES-IP Core dans les architectures applicatives(2022-06-26) FILALI Mohamed Amine; Encadreur: GAFOUR AbdelkaderRésumé (Anglais) : The researchdetailed in this document deal with the design and implementation of a hardware integrated circuit intended to beused as a cryptographicsub-system in secure software. Block ciphers are used in the system secures. It communications are proposed to ensureconfidentiality in the exchange of data through communication systemswith high performance. Several aspects in thiscontext must betakenintoconsideration In particular. The crypto system must be on. The security of a block cipheralgorithmis generallyverified by itsresistanceagainstknownattacks. The second aspect is related to the implementation of the algorithmwhich must have high throughput. The workpresented in thispaper proposes a study and implementation of a symmetricencryptionalgorithmcombinedwith a secure, real-time using a programmable chip of XILINX type of communication system AES block. In thiscontext, wedesigned architecture of AES IP Core algorithm design methodologyis as follows: Proceed to a software implementation of this architecture in order to validate and choose the layoutconstraints on digital circuit and finallyaddress the. Actual hardware implementation by a behavioral description of architecture using VHDL. Functional a simulation using the Model Sim simulator and finally a logic synthesisusingVivado 2020.2 Foundation Résumé (Français) : Les chiffrements par bloc sont largement utilisés dans le système de communications sécurisés. Ils sont proposés afin de d’assurer la confidentialité dans l’échange des données à travers les systèmes de communication avec des performances élevées .dans ce contexte plusieurs aspects doivent être pris en considération. En particulier. Le crypto système doit être sur. La sécurité d’un algorithme de chiffrement par blocs est généralement vérifiée par sa résistance contre les attaques connus. le second aspect est lie à l’implémentation de l’algorithme qui doit avoir un débit élevé. Le travail présenté dans ce mémoire, propose une étude et ’implémentation d’un algorithme de chiffrement symétrique par bloc AES IP combiné à un système de communication sécurisé, en temps réel en utilisant un circuit programmable FPGA de type Virtex de XILINX. Dans ce cadre nous avons conçu une architecture Core de algorithme AES .la méthodologie de conception est la suivante :procéder à une implantation logiciel de cette architecture afin de pouvoir la valider .puis choisir les contraintes d’implantation sur circuit numérique et enfin aborder l’implantation matérielle proprement dite par une description comportementale de architecture à l’aide de langage VHDL .une simulation Fonctionnelle à l’aide du simulateur Model Sim et enfin une synthèse logique à l’aide de synthétiseur XST de Vivado 2020.2
- ItemEvolution des Données Liées: Maintenance des liens(2017-12-14) ARDJANI FATIMA; Encadreur: Djelloul BOUCHIHA; Co-Encadreur: Mimoun MALKIالملخص (بالعربية) : تهدف مبادرة البيانات المرتبطة إلى نشر بيانات منظمة ومترابطة على شبكة الإنترنت باستخدام تكنولوجيات الويب الدلالي. توفر هذه التقنيات لغات مختلفة للتعبير عن البيانات والرسوم البيانية ردف والاستعلام عنها مع سباركل. تسمح البيانات المرتبطة بتنفيذ التطبيقات التي تعيد استخدام البيانات الموزعة على الويب. ولتسهيل قابلية التشغيل البيني بين هذه التطبيقات، يجب أن تكون البيانات الصادرة عن مختلف مقدمي الخدمات مترابطة. وهذا يعني أنه يجب تحديد نفس الكيان في مجموعات بيانات مختلفة. أحد التحديات الرئيسية للبيانات المرتبطة هو التعامل مع هذا التجانس عن طريق الكشف عن الروابط عبر مجموعات البيانات. في مثل هذه البيئة الديناميكية، يتطور الويب للبيانات: يتم إضافة بيانات جديدة، تتم إزالة البيانات القديمة أو تغييرها. ثم، يجب أن تتطور الروابط بين البيانات أيضا. وبما أن الروابط لا ينبغي إعادة حسابها في كل مرة يحدث فيها تغيير، فإن الشبكة الدلالية تحتاج إلى أساليب تأخذ في الاعتبار التطور. على مر الزمن، يمكن أن تظهر الروابط الميتة. الروابط الميتة هي تلك التي تشير إلى عناوين التي لم تعد محفوظة، وتلك التي لا يتم تعيينها عند نشر بيانات جديدة. عدد كبير جدا من الروابط الميتة يؤدي إلى عدد كبير من طلبات غير الضرورية من قبل تطبيقات. أحد الموضوعات البحثية الحالية التي يتناولها مجتمع البيانات المرتبطة هو صيانة الارتباط. ونحن نقترح في هذه الأطروحة نهجا لاكتشاف (شبه) تلقائيا الروابط بين البيانات ردف على أساس نماذج الارتباط التي تظهر حول الموارد والمواءمة الانطولوجيا. يتضمن نهجنا أيضا (شبه) عملية تلقائية للحفاظ على الروابط عند حدوث تغيير البيانات. الهدف من نهجنا هو الكشف عن الروابط الصحيحة والروابط الخاطئة في نفس قاعدة البيانات (وصلات بين القاعدة) وفي مجموعة أساسية (وصلات داخل القاعدة). بعد عملية الكشف، نقترح طريقة وصلة الارتباط. لتقييم أداء نهجنا استخدمنا اختبار حملة التقييم 2012 أوي. قارنا نهجنا مع النظم الأخرى. النتائج التي تم الحصول عليها تظهر الأداء الجيد لنهجنا. Résumé (Français et/ou Anglais) : The Linked Data initiative aims at publishing structured and interlinked data on the Web by using Semantic Web technologies These technologies provide different languages for expressing data as RDF graphs and querying it with SPARQL. Linked data allow the implementation of applications that reuse data distributed on the Web. To facilitate interoperability between these applications, data issued from different providers has to be interlinked. It means that the same entity in different data sets must be identified. One of the key challenges of linked data is to deal with this heterogeneity by detecting links across datasets. In such a dynamic environment, the Web of data evolves: new data are added; outdated data are removed or changed. Then, links between data have to evolve too. Since links should not be recomputed each time a change occurs, the semantic Web needs methods that consider the evolution. Over the time, dead links can appear. Dead links are those pointing at URIs that are no longer maintained, and those that are not being set when new data is published. Too many dead links lead to a large number of unnecessary HTTP requests by applications consumers. A current research topic addressed by the Linked Data community is link maintenance. We propose in this thesis an approach to discover the links between the RDF data based on the link models that appear around the resources and ontology alignment. Our approach also includes a process to maintain links when a data change occurs. The goal of our approach is to detect correct links and erroneous links in the same database (intra-base links) and in a basic set (inter-base links). After the detection process, we propose a link maintenance method. To evaluate the performance of our approach we used the test of the 2012 OAEI evaluation campaign. We compared our approach with other systems. The obtained results show the good performance of our approach.
- ItemExtraction de connaissances à partir du texte(2017-06-08) Doumi Nouredine; Encadreur: Lehireche AhmedRésumé (Français et/ou Anglais) : Résumé: Dans cette thèse on aborde le sujet d’extraction des connaissances à partir du texte arabe. Cette tache a été réalisée à travers la détection et l’extraction des relations sémantiques entre les entités nommées. La problématique de repérage et d’extraction des entités nommées ainsi que les relations sémantiques les reliant a été résolue en utilisant une approche à base de règles, où les règles de l’expert sont traduites sous formes de transducteurs à états finis. Le manque terrible des ressources linguistiques et d’outils nécessaires au TAL arabe nous a conduit à construire nos propres ressources et à l’adaptation des outils de la plateforme Unitex/GramLab afin d’accomplir les taches citées ci-dessus. Les ressources sont aussi construites et puis compressées et stockées en utilisant les transducteurs à états finis. Mots clés: Extraction de connaissances, Entités nommées, relations sémantiques, les transducteurs à états finis. Abstract In this thesis we address the issue of knowledge discovery within Arabic text. This task was achieved by detecting and recognizing the semantic relations between named entities. The issue of repering and extracting the named entities as well as the semantic relations binding them is solved by using a rule-based approach where we convert the expert rules to finite state transducers. The lack of linguistic resources and tools needed for Arabic NLP has pushed us to build our own resources and to adapt the Unitex/GramLab tools to achieve tasks mentioned above. The resources are also built, then compressed and stored using the finite state transducers. Keywords: Knowledge discovery, Named entities, Semantic relations, Finite state transducers.
- ItemHybridation des métaheuristiques dans le processus d’extraction de connaissances à partir de données.(2021-01-21) Alaoui Abdiya; Encadreur: Elberrichi Zakariaالملخص (بالعربية) : اكتشاف نماذج واضحة وفعالة من البيانات هو هدفنا مع التحدي الذي هو العمل مع كمية كبيرة من البيانات واستخدام خوارزميات قوية لاستخراج المعرفة الأساسية. يعد التصنيف الخاضع للإشراف من بين المهام التي تمت دراستها على نطاق واسع في استخراج البيانات. تولد هذه العملية نموذجًا عن طريق تحليل الحالات المصنفة ثم يتم استغلال هذا النموذج للتنبؤ بفئات الحالات غير المسماة. يعتمد أداء النموذج الذي تم إنشاؤه على المصنف وجودة البيانات. أهداف اختيار البيانات هي تقليل حجم البيانات والقضاء على الضوضاء من أجل تحسين جودة البيانات. يوفر اختيار البيانات دقة عالية، ووقتًا أقل للتعلم، ونماذج تنبؤية أقل تعقيدًا، وتفسير البيانات المفهومة. يُعتبر التصنيف الخاضع للإشراف واختيار البيانات من مشكلات التحسين التي يصعب حلها والتي توجد لها حلول عن طريق علم الاكتشاف المتعدد. تهجين علم الاكتشاف المتعدد مع الخوارزميات الأخرى (علم الاكتشاف المتعدد، تقنية استخراج البيانات والتعلم الآلي، ...) يسمح لتطوير مرحلة ما قبل المعالجة وبعد ذلك لبناء نموذج تعليمي فعال وقوي الذي هو مساهمة هذه الأطروحة. الكلمات الرئيسية: استخراج المعرفة من البيانات، المعالجة المسبقة للبيانات ، استخراج البيانات، التصنيف، علم الاكتشاف المتعدد، التهجين، مشاكل التحسين الصعبة Résumé (en Français) : Notre objectif est de découvrir des modèles intelligibles et efficaces à partir de données. Le challenge est de travailler avec une grande masse de données et d’utiliser des algorithmes puissants permettant d’extraire des connaissances indispensables. La classification supervisée fait partie des tâches largement étudiées dans la fouille de données. Ce processus génère un modèle en analysant des instances étiquetées. Ensuite, ce modèle sera exploité pour prédire les classes des instances, non étiquetées. Les performances du modèle généré dépendent des classifieurs et de la qualité des données. Pour cela un bon prétraitement des données, et spécialement la sélection d’attributs, permet d’obtenir une précision élevée, une durée d’apprentissage inférieure, une complexité moindre des modèles prédictifs et une interprétation compréhensible des données. La classification supervisée et le prétraitement des données sont considérés comme des problèmes d’optimisation NP-difficile qui peuvent être résolus par les métaheuristiques. Hybridation de métaheuristiques avec d’autres algorithmes (métaheuristiques, technique de fouille de données et l’apprentissage automatique,. . .) permet de développer la phase de prétraitement et la tâche de la classification supervisée par la suite de construire un modèle d’apprentissage efficient et puissant qui est la contribution de cette thèse. Les mots clés : ECD (extraction de connaissances à partir de données), prétraitement de données, sélection d’attributs, Fouille de données, classification supervisée, Métaheuristiques, Hybridation, problèmes d’optimisation difficile. Abstract (en Anglais) : Our goal is to discover intelligible and efficient models from data. The challenge is to work with a large amount of data and to use powerful algorithms to extract essential knowledge. Supervised classification is among the widely studied tasks in data mining. This process generates a model by analyzing labeled instances. Then, this model will be exploited to predict the classes of unlabeled instances. The performance of the generated model depends on the classifier and the quality of data. The main idea of the data selection is the reduction of the data size and the elimination of the noise, which improves the quality of the data. Feature selection provides high accuracy, lower learning time, less complexity of predictive models, and understandable data interpretation. The supervise classification and the pre-processing of the data are considered to be NP-hard optimization problems that can be solved by meta-heuristics. Hybridization of Metaheuristics with other Algorithms (Metaheuristics, data mining technique and machine learning, ...) allows to develop the preprocessing phase and afterwards to build an efficient and powerful learning model that is the contribution of this thesis. Keywords : KDD (knowledge discovery in databases), data preprocessing, Feature selection, data mining, classification, metaheuristics, hybridization, difficult optimization problems.
- ItemIngénierie ontologique dirigée par les modèles(2017-07-03) Hamri Mohamed Mehdi; Encadreur: Benslimane Sidi Mohamedالملخص (بالعربية) تقنيات الذكاء الاصطناعي الأكثر استخداما لإنشاء الأنطولوجيا، ولكن هذه التقنيات هي أكثر ارتباطا بمخابر البحث من الجمهور العام. خلال العقد الماضي، كانت هناك العديد من المقترحات لاستخدام تقنيات هندسة البرمجيات، ولا سيما أومل لإنشاء الأنطولوجيا لكونه المعيار الهندسي البرمجيات الأكثر قبولا، لتوفير عملية تطوير الأنطولوجيا أقرب إلى عدد كبير من الممارسين ومع ذلك، يستند أومل على نموذج ألأشياء، وهذا يعتبر عائق في تطوير علم الأنطولوجيا. يمكن التغلب على هذه القيود باستخدام ملحقات أومل (، فضلا عن معايير مثل أومج (مدا)، أونتولوجي تعريف ميتاموديل (مدجس) حاليا، فإن الاستخدام المشترك لل مدا والويب الدلالي قد وصلت إلى نضج معين ونجاحا كبيرا في مجال الهندسة من أونتولوجيز هذه الأطروحة هي مساهمة في مجال عمليات البرمجيات .نقترح تطوير الأنطولوجيا على أساس إسو / إيك 24744 (هندسة البرمجيات ميتاموديل من أجل التنمية منهجيات-- سيمدم). يتم إنشاء الأنطولوجيا من نموذج ميتا الموصوف في المعيار باستخدام عملية التحول القائمة على مدا. وهو يصف، من بين أمور أخرى، الأنشطة والمهام التي يتعين تنفيذها، والتحف للتلاعب (إنشاء أو استخدام أو تحرير) والأشخاص المعنيين Résumé (Français et/ou Anglais) : Résumé Le Web sémantique est la direction principale du développement futur du Web. Les ontologies sont la partie la plus importante des applications du Web sémantique. Les techniques d'intelligence artificielle sont les plus utilisés pour la création d'ontologie, mais ces techniques sont plus liées aux laboratoires de recherche qu’un public plus large. Durant la dernière décennie, il ya eu beaucoup de propositions visant à utiliser des techniques de génie logiciel, en particulier l'UML pour la création d’ontologie, car elle est la norme du génie logiciel la plus acceptées, afin d'apporter un processus de développement d'ontologie plus proche d’une large population de praticiens. Cependant, UML est basé sur un paradigme orienté objet, et a une certaine limite en matière de développement d'ontologie. Ces limitations peuvent être surmontées en utilisant les extensions d'UML (c. profils UML), ainsi que les normes d’OMG tel que l’Architecture dirigé par les modèles (MDA), le métamodéle de définition d’ontologie (ODM). Actuellement, l’utilisation conjointe d’MDA et du web sémantique a atteint un certain degré de maturité et un franc succès dans le domaine de l’ingénierie d’ontologies. Cette thèse est une contribution au domaine des procédés logiciel (PL). Nous y proposons le développement d’une ontologie basée sur la norme ISO/IEC 24744 (Software Engineering-Metamodel for Development Methodologies - SEMDM). L’ontologie est générée à partir du méta modèle décrit dans la norme en utilisant un processus de transformation basé MDA . Elle décrit, entre autres, les activités et les tâches à exécuter, les artefacts à manipuler (créer, utiliser ou modifier) et les personnes impliquées. Cette ontologie aidera à systématiser et à mieux maitriser l’utilisation du modèle de la norme ISO/24744. L’ontologie peut lever l’ambigüité terminologique sur les différents concepts de la norme et offre une représentation formelle de son vocabulaire. Enfin, elle peut offrir un moyen d’analyse, de vérification et de validation d’un projet. Abstract The Semantic Web is the main direction of future development of the Web. Ontologies are the most important part of the Semantic Web applications. AI techniques are most used for the creation of ontology, but these techniques are more related to research then the general public. During the last decade, there have been many proposals to use software engineering techniques, particularly the UML for creating ontology as it is the most accepted software engineering standard, to provide a process development of ontology closer to a large population of practitioners. However, UML is based on an object-oriented paradigm, and has a certain limit in the development of ontology. These limitations can be overcome by using the UML extensions (v. UML profiles), as well as standards such as OMG Model Driven Architecture (MDA), ontology definition metamodel (MDGs). Currently, the joint use of MDA and the semantic web has reached a certain maturity and a great success in the field of engineering of ontologies. This thesis is a contribution to the field of software processes (SP). We propose the development of an ontology based on ISO / IEC 24744 (Software Engineering Metamodel for Development Methodologies-- SEMDM). The ontology is generated from the meta model described in the standard using a MDA based transformation process. It describes, among other, the activities and tasks to be executed, artifacts to manipulate (create, use or edit) and the people involved. This ontology will help to systematize and better control the use of the model of the ISO / 24744 standard. The ontology may lift the terminological ambiguity about the different concepts of the standard and provides a formal representation of its vocabulary. Also the ontology can provide a means of analysis, verification and validation of a project.