- [ VRPG-Doc-Sc] Informatique --- إعلام آلي

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 5 of 31
  • Item
    Surveillance et détection de changement de la déforestation dans les images SAR
    (2022-02-09) HORCH Abdelkader; Encadreur: Taleb Nasreddine; Co-Encadreur: Gafour Abdelkader
    Résumé (Anglais) : Deforestation has become a major problem consisting of a continuous regression of forested areas in the world, and for this purpose, an efficient detection of these changes has become more than necessary. In this work, a new method for deforestation change detection is proposed. This approach is based on a supervised fusion of local texture features extracted from SAR images. ALOS PALSAR (Advanced Land Observation Satellite Phased Array type L-band Synthetic Aperture Radar) multi-temporal data have been used in this work. Normalised radar cross-section (NRCS) and polarimetric features extracted from HH and HV polarised data allowed recognizing different categories of land covers termed as NRCS classification. Greylevel co-occurrence matrix (GLCM) texture features were extracted by using different moving window sizes applied on local regions previously obtained by binarisation of the NRCS results. A total of 300 samples of regions and five GLCM characteristics have been used here. The detection of deforestation appears clearly in the resulted images with a very satisfactory precision of the reached regions, and the obtained results of the proposed supervised approach have indeed led to very good detection results of the deforestation change. Résumé (Français) : La déforestation est devenue un problème majeur qui consiste à une régression continue des zones forestières du monde, et pour cette raison, une détection efficace de ces changements est devenue plus que nécessaire. Dans ce travail, une nouvelle méthode de détection du changement de la déforestation est proposée. Cette approche repose sur une fusion supervisée des caractéristiques de texture locale extraite des images radar SAR (Synthetic Aperture Radar) ou RSO (Radar à synthèse d'ouverture), où des images ALOS (satellite d'observation terrestre avancée) PALSAR (Radar à synthèse d'ouverture avec une bande de type L synchrone) ont été utilisées dans ce travail. Une classification NRCS (Normalized radar cross-section, ou section transversale du radar normalisée) a été réalisée à partir des caractéristiques polarimétriques extraites des données SAR polarisées HH (Horizontal- Horizontal) et HV (Horizontal-Vertical), permettant de reconnaître différentes catégories de couvertures terrestres. Des caractéristiques de type texture utilisant les matrices de co-occurrence (GLCM), ont été extraites en appliquant différentes tailles de fenêtres mobiles aux régions locales précédemment obtenues dans la classification NRCS. Au total, 300 échantillons des différentes classes de régions et cinq caractéristiques GLCM ont été utilisés dans cette étude. L’approche proposée a donné de très bons résultats de détection du changement, où la déforestation apparaît clairement dans les images obtenues avec une précision très satisfaisante des régions atteintes.
  • Item
    Ingénierie ontologique dirigée par les modèles
    (2017-07-03) Hamri Mohamed Mehdi; Encadreur: Benslimane Sidi Mohamed
    الملخص (بالعربية) تقنيات الذكاء الاصطناعي الأكثر استخداما لإنشاء الأنطولوجيا، ولكن هذه التقنيات هي أكثر ارتباطا بمخابر البحث من الجمهور العام. خلال العقد الماضي، كانت هناك العديد من المقترحات لاستخدام تقنيات هندسة البرمجيات، ولا سيما أومل لإنشاء الأنطولوجيا لكونه المعيار الهندسي البرمجيات الأكثر قبولا، لتوفير عملية تطوير الأنطولوجيا أقرب إلى عدد كبير من الممارسين ومع ذلك، يستند أومل على نموذج ألأشياء، وهذا يعتبر عائق في تطوير علم الأنطولوجيا. يمكن التغلب على هذه القيود باستخدام ملحقات أومل (، فضلا عن معايير مثل أومج (مدا)، أونتولوجي تعريف ميتاموديل (مدجس) حاليا، فإن الاستخدام المشترك لل مدا والويب الدلالي قد وصلت إلى نضج معين ونجاحا كبيرا في مجال الهندسة من أونتولوجيز هذه الأطروحة هي مساهمة في مجال عمليات البرمجيات .نقترح تطوير الأنطولوجيا على أساس إسو / إيك 24744 (هندسة البرمجيات ميتاموديل من أجل التنمية منهجيات-- سيمدم). يتم إنشاء الأنطولوجيا من نموذج ميتا الموصوف في المعيار باستخدام عملية التحول القائمة على مدا. وهو يصف، من بين أمور أخرى، الأنشطة والمهام التي يتعين تنفيذها، والتحف للتلاعب (إنشاء أو استخدام أو تحرير) والأشخاص المعنيين Résumé (Français et/ou Anglais) : Résumé Le Web sémantique est la direction principale du développement futur du Web. Les ontologies sont la partie la plus importante des applications du Web sémantique. Les techniques d'intelligence artificielle sont les plus utilisés pour la création d'ontologie, mais ces techniques sont plus liées aux laboratoires de recherche qu’un public plus large. Durant la dernière décennie, il ya eu beaucoup de propositions visant à utiliser des techniques de génie logiciel, en particulier l'UML pour la création d’ontologie, car elle est la norme du génie logiciel la plus acceptées, afin d'apporter un processus de développement d'ontologie plus proche d’une large population de praticiens. Cependant, UML est basé sur un paradigme orienté objet, et a une certaine limite en matière de développement d'ontologie. Ces limitations peuvent être surmontées en utilisant les extensions d'UML (c. profils UML), ainsi que les normes d’OMG tel que l’Architecture dirigé par les modèles (MDA), le métamodéle de définition d’ontologie (ODM). Actuellement, l’utilisation conjointe d’MDA et du web sémantique a atteint un certain degré de maturité et un franc succès dans le domaine de l’ingénierie d’ontologies. Cette thèse est une contribution au domaine des procédés logiciel (PL). Nous y proposons le développement d’une ontologie basée sur la norme ISO/IEC 24744 (Software Engineering-Metamodel for Development Methodologies - SEMDM). L’ontologie est générée à partir du méta modèle décrit dans la norme en utilisant un processus de transformation basé MDA . Elle décrit, entre autres, les activités et les tâches à exécuter, les artefacts à manipuler (créer, utiliser ou modifier) et les personnes impliquées. Cette ontologie aidera à systématiser et à mieux maitriser l’utilisation du modèle de la norme ISO/24744. L’ontologie peut lever l’ambigüité terminologique sur les différents concepts de la norme et offre une représentation formelle de son vocabulaire. Enfin, elle peut offrir un moyen d’analyse, de vérification et de validation d’un projet. Abstract The Semantic Web is the main direction of future development of the Web. Ontologies are the most important part of the Semantic Web applications. AI techniques are most used for the creation of ontology, but these techniques are more related to research then the general public. During the last decade, there have been many proposals to use software engineering techniques, particularly the UML for creating ontology as it is the most accepted software engineering standard, to provide a process development of ontology closer to a large population of practitioners. However, UML is based on an object-oriented paradigm, and has a certain limit in the development of ontology. These limitations can be overcome by using the UML extensions (v. UML profiles), as well as standards such as OMG Model Driven Architecture (MDA), ontology definition metamodel (MDGs). Currently, the joint use of MDA and the semantic web has reached a certain maturity and a great success in the field of engineering of ontologies. This thesis is a contribution to the field of software processes (SP). We propose the development of an ontology based on ISO / IEC 24744 (Software Engineering Metamodel for Development Methodologies-- SEMDM). The ontology is generated from the meta model described in the standard using a MDA based transformation process. It describes, among other, the activities and tasks to be executed, artifacts to manipulate (create, use or edit) and the people involved. This ontology will help to systematize and better control the use of the model of the ISO / 24744 standard. The ontology may lift the terminological ambiguity about the different concepts of the standard and provides a formal representation of its vocabulary. Also the ontology can provide a means of analysis, verification and validation of a project.
  • Item
    L’apprentissage à base de cas pour la composition des services web
    (2016-01-21) Hachemi Yamina; Encadreur: Benslimane Sidi Mohammed
    Résumé (Français et/ou Anglais) : Distributed applications converge quickly towards the adoption of a paradigm based on service-oriented architectures (SOA), in which an application is obtained by the composition of a set of services. Web service selection is an indispensable process for web service composition. However, it became a difficult task as many web services are increased on the web and mostly they offer similar functionalities, which service will be the best. User preferences are the key to select and retain only the best services for the composition. In this work, we have proposed a web service composition model based on user preferences. To improve the process of web service composition we propose to combine two techniques of artificial intelligence that are planning and reasoning by memorization. In this work, we use the case-based planning approach with user preferences, which uses successful experiences of the past to solve similar problems. In our approach we integrate user preferences in the phase of selection, adaptation and planning. Our main contributions are a new method of case retrieval, an extended algorithm of adaptation and planning with user preferences. Results obtained offer more than a solution to the user and taking both functional and non-functional requirements.
  • Item
    Apprentissage automatique pour une classification des images basée sur les descripteurs
    (2020-12-16) GAFOUR Yacine; Encadreur: BERRABAH Djamel; Co-Encadreur: GAFOUR Abdelkader
    Résumé (en Français) : Le développement rapide des appareils numériques (téléphones portables, cameras etc.) a mené à une augmentation explosive des données multimédia (images et vidéos) de haute qualité à gérer. L’énorme quantité de ces données doit être interprétées et récupérées par les grandes entreprises. En effet, elles ont besoin de méthodes efficaces pour exploiter le contenu de ces données et le transformer en connaissances précieuses afin d’avoir une compréhension visuelle rapide des images et des vidéos. Dans cette thèse, nous définissons plusieurs buts qui sont intéressants pour comprendre le contenu visuel des images afin de réaliser les tâches de la classification d’images et la reconnaissance d’objets. Par conséquent, nous proposons des modèles et des approches dédiées à ces taches en utilisant l’apprentissage automatique et en se basant sur des descripteurs représentatifs du contenu de l'image. Ces descripteurs sont obtenus par le processus d'extraction de caractéristiques à partir de l'image. Dans ce contexte, nous présentons les deux approches suivantes. Dans la première approche, nous proposons un nouveau modèle pour améliorer les performances du descripteur A-KAZE pour la classification des images. Nous établissons d'abord la connexion entre le descripteur A-KAZE et le modèle Bag of features (BoF). Ensuite, nous adoptons le Spatial Pyramid Matching (SPM) pour introduire des informations spatiales durant l’exploitation du descripteur A-KAZE afin de renforcer sa robustesse. Nous présentons dans la seconde approche un nouveau modèle pour la reconnaissance faciale. Cette approche est basée sur un nouvel ensemble de variantes du descripteur LBP que nous avons proposé et que nous avons appelé Honeycomb-Local Binary Pattern (Ho-LBP). En effet, la présentation des images en utilisant un ensemble de variantes du descripteur Ho-LBP aide le classificateur à mieux apprendre. De plus, ces variantes sont combinées pour améliorer les performances du processus de la reconnaissance faciale. Les mots clés : Apprentissage automatique, descripteurs, classification des images, reconnaissance faciale. Abstract (en Anglais) : The rapid development of digital devices (cell phones, cameras, etc.) has led to an explosive increase in high quality multimedia data (images and videos) to be managed. The enormous amount of this data must be interpreted and retrieved by large companies. Indeed, they need efficient methods to exploit the content of this data and transform it into valuable knowledge in order to have a rapid visual understanding of images and videos. In this thesis, we define several goals that are interesting for understanding the visual content of images in order to perform the tasks of image classification and object recognition. Therefore, we propose models and approaches dedicated to these tasks using machine learning and based on descriptors representative of the content of the image. These descriptors are obtained by the process of extracting the characteristics of the image. In this context, we present the following two approaches. In the first approach, we propose a new model to improve the performance of the A-KAZE descriptor for image classification. We first establish the connection between the A-KAZE descriptor and the Bag of features (BoF) model. Then, we adopt the Spatial Pyramid Matching (SPM) to introduce spatial information during the exploitation of the A-KAZE descriptor in order to reinforce its robustness. We present in the second approach a new model for facial recognition. This approach is based on a new set of variants of the LBP descriptor that we have proposed and named Honeycomb-Local Binary Pattern (Ho-LBP). Indeed, presenting the images using a set of variants of the Ho-LBP descriptor helps the classifier to learn better. In addition, these variants are combined to improve the performance of the facial recognition process. Keywords: Machine learning, descriptors, image classification, facial recognition.
  • Item
    Etude et Implémentation et Intégration de L’algorithme De Chiffrement AES-IP Core dans les architectures applicatives
    (2022-06-26) FILALI Mohamed Amine; Encadreur: GAFOUR Abdelkader
    Résumé (Anglais) : The researchdetailed in this document deal with the design and implementation of a hardware integrated circuit intended to beused as a cryptographicsub-system in secure software. Block ciphers are used in the system secures. It communications are proposed to ensureconfidentiality in the exchange of data through communication systemswith high performance. Several aspects in thiscontext must betakenintoconsideration In particular. The crypto system must be on. The security of a block cipheralgorithmis generallyverified by itsresistanceagainstknownattacks. The second aspect is related to the implementation of the algorithmwhich must have high throughput. The workpresented in thispaper proposes a study and implementation of a symmetricencryptionalgorithmcombinedwith a secure, real-time using a programmable chip of XILINX type of communication system AES block. In thiscontext, wedesigned architecture of AES IP Core algorithm design methodologyis as follows: Proceed to a software implementation of this architecture in order to validate and choose the layoutconstraints on digital circuit and finallyaddress the. Actual hardware implementation by a behavioral description of architecture using VHDL. Functional a simulation using the Model Sim simulator and finally a logic synthesisusingVivado 2020.2 Foundation Résumé (Français) : Les chiffrements par bloc sont largement utilisés dans le système de communications sécurisés. Ils sont proposés afin de d’assurer la confidentialité dans l’échange des données à travers les systèmes de communication avec des performances élevées .dans ce contexte plusieurs aspects doivent être pris en considération. En particulier. Le crypto système doit être sur. La sécurité d’un algorithme de chiffrement par blocs est généralement vérifiée par sa résistance contre les attaques connus. le second aspect est lie à l’implémentation de l’algorithme qui doit avoir un débit élevé. Le travail présenté dans ce mémoire, propose une étude et ’implémentation d’un algorithme de chiffrement symétrique par bloc AES IP combiné à un système de communication sécurisé, en temps réel en utilisant un circuit programmable FPGA de type Virtex de XILINX. Dans ce cadre nous avons conçu une architecture Core de algorithme AES .la méthodologie de conception est la suivante :procéder à une implantation logiciel de cette architecture afin de pouvoir la valider .puis choisir les contraintes d’implantation sur circuit numérique et enfin aborder l’implantation matérielle proprement dite par une description comportementale de architecture à l’aide de langage VHDL .une simulation Fonctionnelle à l’aide du simulateur Model Sim et enfin une synthèse logique à l’aide de synthétiseur XST de Vivado 2020.2