Browsing by Author "Encadreur: BERRABAH Djamel"
Now showing 1 - 2 of 2
Results Per Page
Sort Options
- ItemApprentissage automatique pour une classification des images basée sur les descripteurs(2020-12-16) GAFOUR Yacine; Encadreur: BERRABAH Djamel; Co-Encadreur: GAFOUR AbdelkaderRésumé (en Français) : Le développement rapide des appareils numériques (téléphones portables, cameras etc.) a mené à une augmentation explosive des données multimédia (images et vidéos) de haute qualité à gérer. L’énorme quantité de ces données doit être interprétées et récupérées par les grandes entreprises. En effet, elles ont besoin de méthodes efficaces pour exploiter le contenu de ces données et le transformer en connaissances précieuses afin d’avoir une compréhension visuelle rapide des images et des vidéos. Dans cette thèse, nous définissons plusieurs buts qui sont intéressants pour comprendre le contenu visuel des images afin de réaliser les tâches de la classification d’images et la reconnaissance d’objets. Par conséquent, nous proposons des modèles et des approches dédiées à ces taches en utilisant l’apprentissage automatique et en se basant sur des descripteurs représentatifs du contenu de l'image. Ces descripteurs sont obtenus par le processus d'extraction de caractéristiques à partir de l'image. Dans ce contexte, nous présentons les deux approches suivantes. Dans la première approche, nous proposons un nouveau modèle pour améliorer les performances du descripteur A-KAZE pour la classification des images. Nous établissons d'abord la connexion entre le descripteur A-KAZE et le modèle Bag of features (BoF). Ensuite, nous adoptons le Spatial Pyramid Matching (SPM) pour introduire des informations spatiales durant l’exploitation du descripteur A-KAZE afin de renforcer sa robustesse. Nous présentons dans la seconde approche un nouveau modèle pour la reconnaissance faciale. Cette approche est basée sur un nouvel ensemble de variantes du descripteur LBP que nous avons proposé et que nous avons appelé Honeycomb-Local Binary Pattern (Ho-LBP). En effet, la présentation des images en utilisant un ensemble de variantes du descripteur Ho-LBP aide le classificateur à mieux apprendre. De plus, ces variantes sont combinées pour améliorer les performances du processus de la reconnaissance faciale. Les mots clés : Apprentissage automatique, descripteurs, classification des images, reconnaissance faciale. Abstract (en Anglais) : The rapid development of digital devices (cell phones, cameras, etc.) has led to an explosive increase in high quality multimedia data (images and videos) to be managed. The enormous amount of this data must be interpreted and retrieved by large companies. Indeed, they need efficient methods to exploit the content of this data and transform it into valuable knowledge in order to have a rapid visual understanding of images and videos. In this thesis, we define several goals that are interesting for understanding the visual content of images in order to perform the tasks of image classification and object recognition. Therefore, we propose models and approaches dedicated to these tasks using machine learning and based on descriptors representative of the content of the image. These descriptors are obtained by the process of extracting the characteristics of the image. In this context, we present the following two approaches. In the first approach, we propose a new model to improve the performance of the A-KAZE descriptor for image classification. We first establish the connection between the A-KAZE descriptor and the Bag of features (BoF) model. Then, we adopt the Spatial Pyramid Matching (SPM) to introduce spatial information during the exploitation of the A-KAZE descriptor in order to reinforce its robustness. We present in the second approach a new model for facial recognition. This approach is based on a new set of variants of the LBP descriptor that we have proposed and named Honeycomb-Local Binary Pattern (Ho-LBP). Indeed, presenting the images using a set of variants of the Ho-LBP descriptor helps the classifier to learn better. In addition, these variants are combined to improve the performance of the facial recognition process. Keywords: Machine learning, descriptors, image classification, facial recognition.
- ItemQualité des données dans le contexte Big Data.(2021-02-15) BENKHALED Hamid Naceur; Encadreur: BERRABAH Djamelالملخص(بالعربية): تفقد المؤسسات حول العالم تريليونات الدولارات بسبب مشاكل جودة البيانات السيئة. في السنوات الأخيرة ، جعل الوعي بأهمية جودة البيانات أصحاب المصلحة يستثمرون الكثير من المال من أجل تحسين جودة البيانات المخزنة. واحدة من العمليات الرئيسية في مجال جودة البيانات هي عملية ربط السجلات. ربط السجلات هو عملية تحديد البيانات التي تشير إلى نفس الكيان الواقعي. بدون تجزئة، يمكن أن تنتهي عملية ربط البيانات بمليارات المقارنات عند التعامل مع مجموعة بيانات .كبيرة. تؤدي تجزئة البيانات إلى تقليل عدد المقارنات عن طريق تقسيم البيانات إلى كتل بطريقة تتم فيها مقارنة السجلات الموجودة في نفس الكتلة فقط في هذه الأطروحة ، نقدم المساهمات التالية: (1) أسلوب جديد لربط البيانات يستند إلى خوارزمية كي-مودز كخطوة تجزئة وتقنية تصفية كخطوة بعد التجزئة. يرتبط النهج المقترح بالتنفيذ الموازي باستخدام تقنية ماب ريد يوس لمواجهة تحديات البيانات الضخمة. (2) نقترح نهجًا دو طابع تلقائي لاختيار مفاتيح التجزئة استنادًا إلى خوارزمية بحث النسر الأصلع. (3) نقدم آلية تتحكم في أحجام الكتل المولدة. (4) نقترح حلاً بحيث يمكن استخدام منهجنا المقترح في حالة اللغة العربية ، والحل هو .إضافة خطوة تحويل صوتي إضافية إلى العملية. أظهرت النتائج التي تم الحصول عليها من التجارب كفاءة مقترحاتنا الكلمات الرئيسية: جودة البيانات, البيانات الكبيرة, ربط السجلات, مستودعات البيانات. ----------------------------------------------------------------------------------- Résumé (en Français) : Les Organisations du monde entier perdent des billions de dollars en raison de problèmes de qualité des données. L'un des principaux processus dans le domaine de la qualité des données est le processus de couplage d'enregistrements (Record Linkage). Le couplage d'enregistrements est le processus qui consiste à identifier les tuples qui se réfèrent à la même entité du monde réel. Sans blocage, le processus RL peut aboutir à des milliards de comparaisons lorsqu'il s'agit de grands ensembles de données. Le blocage réduit le nombre de comparaisons en divisant les données en blocs de manière à ce que seuls les enregistrements d'un même bloc soient comparés les uns aux autres. Dans cette thèse, nous présentons les contributions suivantes : (1) Une nouvelle approche RL basée sur l'algorithme K-Modes comme étape de blocage et une technique de filtrage comme étape de post-traitement au blocage. L'approche RL proposée est associée à une implémentation parallèle utilisant Hadoop afin de faire face aux défis des Big Data. (2) Nous proposons une approche pour la sélection automatique des clés de blocage basée sur l'algorithme de recherche Bald Eagle. (3) Nous introduisons un mécanisme qui contrôle la taille des blocs générés par K-Modes. (4) Nous proposons une solution pour que notre RL basé sur K-Modes puisse être utilisé dans le cas de la langue arabe, la solution est d'ajouter une étape de translitération supplémentaire au processus RL. Les résultats obtenus par les expérimentations ont montré l'efficacité de nos propositions. Les mots clés :Qualité des données, couplage d'enregistrements, Big Data, Map-Reduce, Entrepôts de données. ----------------------------------------------------------------------------------- Abstract (en Anglais) : Organizations around the world lose trillions of dollars due to poor data quality problems. One of the main processes in the data quality field is the Record Linkage process. Record linkage is the process of identifying the tuples that refer to the same real-world entity. Without blocking, the RL process can end up by billions of comparisons when dealing with large datasets. Blocking reduces the number of comparisons by dividing the data into blocks in a way that only the records in the same block will be compared to each other. In this thesis, we present the following contributions : (1) A new RL approach based on the K-Modes algorithm as a blocking step and a filtering technique as a post-processing step to blocking. The proposed RL approach is associated with a parallel implementation using Hadoop in order to face the Big Data challenges. (2) We propose an approach for the automatic blocking keys selection based on the Bald Eagle search algorithm. (3) We introduce a mechanism that controls the sizes of the K-Modes generated blocks. (4) We suggest a solution so that our K-Modes based RL can be used in the case of the Arabic language, the solution is to add an additional transliteration step to the RL process. The obtained results from experiments showed the efficiency of our propositions. Keywords :Data quality, Record Linkage, Big Data, Map-Reduce, Data warehouses.