Mémoire de maîtrise (2025)
|
Libre accès au plein texte de ce document Conditions d'utilisation: Tous droits réservés Télécharger (8MB) |
Résumé
L’intégration de l’Intelligence Artificielle (IA) dans les systèmes avioniques, en particulier pour la détection d’intrusions (IDS), soulève un défi majeur : concilier performance algorithmique et transparence décisionnelle. Alors que le marché des systèmes avioniques intelligents devrait atteindre 10 milliards USD d’ici 2030, et que 78% des compagnies aériennes utilisent déjà des outils de cybersécurité intelligents, seulement 11% exploitent pleinement leurs données pour entraîner des modèles d’IA. Ce fossé s’explique par l’opacité des modèles complexes (LSTM, Transformers), qui, malgré leur précision, restent perçus comme des boîtes noires dans un domaine où 42% des erreurs humaines proviennent de décisions mal comprises. Ce mémoire explore comment l’IA eXplicable (XAI) peut renforcer la confiance dans les IDS avioniques en fournissant des explications interprétables aux opérateurs humains. L’utilisation de l’XAI dans un tel contexte est encore inédite et cette recherche vise à approfondir les tenants et les aboutissants d’une telle application. Nous proposons d’abord un cadre conceptuel structurant plusieurs concepts clés pour guider l’implémentation de l’XAI en contexte avionique. Ensuite, nous présentons un formalisme mathématique unifié évaluant des techniques comme SHAP et LIME, théoriquement stables et précises et adaptées aux contraintes de temps réel. Enfin, nous développons une méthodologie d’intégration testée sur deux scénarios puis évaluons sa viabilité à l’aide de métriques adéquates. Nos applications fournissent d’excellents résultats tant sur la capacité à obtenir des explications approfondies sur le fonctionnement du modèle, que sur le respect de celles-ci des critères d’évaluation exigés comme la robustesse ou la stabilité. L’utilisation de l’XAI peut effectivement améliorer la confiance dans les IDS dans un contexte avionique. Cependant, notre travail révèle également que les explications générées ne sont interprétables et utilisables que par des experts en analyse de données, ou dans le domaine considéré (avionique, cybersécurité). Ces explications nécessitent ainsi une analyse a posteriori avant de pouvoir être effectivement transmises aux utilisateurs comme les pilotes. Cette recherche ouvre la voie à un approfondissement et à une standardisation de l’XAI pour l’avionique, pour pouvoir répondre aux besoins opérationnels tout en fournissant des résultats utiles et justes.
Abstract
Integrating Artificial Intelligence (AI) into avionics systems, particularly for intrusion detection (IDS), raises a major challenge: reconciling algorithmic performance with decision-making transparency. While the market for intelligent avionics systems is expected to reach 10 billion USD by 2030, and 78% of airlines are already using intelligent cybersecurity tools, only 11% are fully exploiting their data to train AI models. This gap is explained by the opacity of complex models (LSTM, Transformers), which, despite their accuracy, remain perceived as black boxes in a field where 42% of human errors stem from poorly understood decisions. This thesis explores how eXplainable AI (XAI) can enhance trust in avionics IDS by providing interpretable explanations to human operators. The use of XAI in such a context is still unprecedented, and this research aims to explore the ins and outs of such an application. We first propose a conceptual framework structuring several key concepts to guide the implementation of XAI in an avionics context. Next, we present a unified mathematical formalism evaluating techniques such as SHAP and LIME, which are theoretically stable and accurate and adapted to real-time constraints. Finally, we develop an integration methodology tested on two scenarios, then assess its viability using appropriate metrics. Our applications deliver excellent results, both in terms of their ability to provide in-depth explanations of how the model works, and in terms of their compliance with required evaluation criteria such as robustness and stability. The use of XAI can indeed improve confidence in IDS in an avionics context. However, our work also reveals that the explanations generated can only be interpreted and used by experts in data analysis, or in the domain under consideration (avionics, cybersecurity). These explanations thus require a posteriori analysis before they can be effectively transmitted to users such as pilots. This research paves the way for further development and standardization of XAI for avionics, to meet operational needs while providing useful and accurate results.
| Département: | Département de génie informatique et génie logiciel |
|---|---|
| Programme: | Génie informatique |
| Directeurs ou directrices: |
Gabriela Nicolescu |
| URL de PolyPublie: | https://publications.polymtl.ca/67093/ |
| Université/École: | Polytechnique Montréal |
| Date du dépôt: | 14 nov. 2025 15:33 |
| Dernière modification: | 15 nov. 2025 20:40 |
| Citer en APA 7: | de Malefette, C. (2025). Améliorer la confiance envers les outils d'IA pour sécuriser les communications avioniques avec l'IA eXplicable [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/67093/ |
|---|---|
Statistiques
Total des téléchargements à partir de PolyPublie
Téléchargements par année
Provenance des téléchargements
