Thèse de doctorat (2018)
Document en libre accès dans PolyPublie |
|
Libre accès au plein texte de ce document Conditions d'utilisation: Tous droits réservés Télécharger (7MB) |
Résumé
Avec l'intérêt que la technologie d'aujourd'hui a sur les données, il est facile de supposer que l'information est au bout des doigts, prêt à être exploité. Les méthodologies et outils de recherche sont souvent construits sur cette hypothèse. Cependant, cette illusion d'abondance se brise souvent lorsqu'on tente de transférer des techniques existantes à des applications industrielles. Par exemple, la recherche a produit divers méthodologies permettant d'optimiser l'utilisation des ressources de grands systèmes complexes, tels que les avioniques de l'Airbus A380. Ces approches nécessitent la connaissance de certaines mesures telles que les temps d'exécution, la consommation de mémoire, critères de communication, etc. La conception de ces systèmes complexes a toutefois employé une combinaison de compétences de différents domaines (probablement avec des connaissances en génie logiciel) qui font que les données caractéristiques au système sont incomplètes ou manquantes. De plus, l'absence d'informations pertinentes rend difficile de décrire correctement le système, de prédire son comportement, et améliorer ses performances. Nous faisons recours au modèles probabilistes et des techniques d'apprentissage automatique pour remédier à ce manque d'informations pertinentes. La théorie des probabilités, en particulier, a un grand potentiel pour décrire les systèmes partiellement observables. Notre objectif est de fournir des approches et des solutions pour produire des informations pertinentes. Cela permet une description appropriée des systèmes complexes pour faciliter l'intégration, et permet l'utilisation des techniques d'optimisation existantes. Notre première étape consiste à résoudre l'une des difficultés rencontrées lors de l'intégration de système : assurer le bon comportement temporelle des composants critiques des systèmes. En raison de la mise à l'échelle de la technologie et de la dépendance croissante à l'égard des architectures à multi-coeurs, la surcharge de logiciels fonctionnant sur différents coeurs et le partage d'espace mémoire n'est plus négligeable. Pour tel, nous étendons la boîte à outils des système temps réel avec une analyse temporelle probabiliste statique qui estime avec précision l'exécution d'un logiciel avec des considerations pour les conflits de mémoire partagée. Le modèle est ensuite intégré dans un simulateur pour l'ordonnancement de systèmes temps réel multiprocesseurs.
Abstract
In today's data-driven technology, it is easy to assume that information is at the tip of our fingers, ready to be exploited. Research methodologies and tools are often built on top of this assumption. However, this illusion of abundance often breaks when attempting to transfer existing techniques to industrial applications. For instance, research produced various methodologies to optimize the resource usage of large complex systems, such as the avionics of the Airbus A380. These approaches require the knowledge of certain metrics such as the execution time, memory consumption, communication delays, etc. The design of these complex systems, however, employs a mix of expertise from different fields (likely with limited knowledge in software engineering) which might lead to incomplete or missing specifications. Moreover, the unavailability of relevant information makes it difficult to properly describe the system, predict its behavior, and improve its performance. We fall back on probabilistic models and machine learning techniques to address this lack of relevant information. Probability theory, especially, has great potential to describe partiallyobservable systems. Our objective is to provide approaches and solutions to produce relevant information. This enables a proper description of complex systems to ease integration, and allows the use of existing optimization techniques. Our first step is to tackle one of the difficulties encountered during system integration: ensuring the proper timing behavior of critical systems. Due to technology scaling, and with the growing reliance on multi-core architectures, the overhead of software running on different cores and sharing memory space is no longer negligible. For such, we extend the real-time system tool-kit with a static probabilistic timing analysis technique that accurately estimates the execution of software with an awareness of shared memory contention. The model is then incorporated into a simulator for scheduling multi-processor real-time systems.
Département: | Département de génie informatique et génie logiciel |
---|---|
Programme: | Génie informatique |
Directeurs ou directrices: | Giovanni Beltrame et Gabriela Nicolescu |
URL de PolyPublie: | https://publications.polymtl.ca/3711/ |
Université/École: | École Polytechnique de Montréal |
Date du dépôt: | 22 févr. 2019 13:12 |
Dernière modification: | 03 oct. 2024 14:00 |
Citer en APA 7: | Hafnaoui, I. (2018). Handling Information and its Propagation to Engineer Complex Embedded Systems [Thèse de doctorat, École Polytechnique de Montréal]. PolyPublie. https://publications.polymtl.ca/3711/ |
---|---|
Statistiques
Total des téléchargements à partir de PolyPublie
Téléchargements par année
Provenance des téléchargements